Gehen Sie direkt zum Inhalt der Seite Gehen Sie zur Hauptnavigation Gehen Sie zur Forschung

Die Analyse riesiger Datenmengen ist zu einem entscheidenden Faktor für den effizienten Einsatz künstlicher Intelligenz in der Wirtschaft geworden.

© Captain Dash

„Deep Learning“, „Machine Learning“, neuronale Netze: das mit künstlicher Intelligenz (KI) verknüpfte Vokabular hat das Jahr 2016 dominiert und behauptet sich auch 2017. „Das Potential scheint tatsächlich recht groß“, unterstreichen Gilles Babinet und Bruno Walther, Mitgründer von Captain Dash, ein Unternehmen, das Systeme zur Unterstützung bei der Entscheidungsfindung in Form von Dashboards anbietet (1). „Wer schon einmal mit Chatbots gearbeitet hat, z. B. in der Lagerwirtschaft oder im Controlling, war sicherlich beeindruckt, mit welcher Geschwindigkeit diese neuen Tools lernen. Immer häufiger sind sie sogar mit Sprachinterfaces ausgestattet.“

Allerdings muss man die Informationen der KI verstehen können und darf wesentliche Punkte nicht außer Acht lassen, um Fehlinterpretationen zu vermeiden. In den USA führten beispielsweise Daten aus dem „Machine Learning“ zu sehr diskriminierenden Polizeikontrollen bestimmter ethnischer Minderheiten.

Um das zu vermeiden, ist die Verwendung der „Analytics“, der analytischen Verarbeitung von großen Datenmengen (Big Data), zu empfehlen. „Hier sind die Analytics sehr sinnvoll: Damit können komplexe Berichte zusammengefasst dargestellt werden, und so werden bisweilen Fehler deutlich, welche die Maschine nicht erkannt hat. Ein erfahrener Operator kann diese dann korrigieren und gleichzeitig die Maschine anleiten“, fügen Babinet und Walther hinzu.

Sechzig Mitarbeiter bei Axians Niederlande

Solche Problemstellungen kennzeichnen das Kerngeschäft von Axians Niederlande (VINCI Energies), wo ein sechzigköpfiges Team an KI- und Big Data-Lösungen für Gesundheitswesen, Industrie und Handel arbeitet. „Wenn Sie künstliche Intelligenz richtig nutzen wollen, brauchen Sie zunächst umfassende Kenntnisse über diese Märkte, deren Probleme und Chancen“, analysiert Edwin Van Merriënboer, Business Unit Manager.

„Wir haben ein prädiktives Modell entwickelt, das auf großen Datenmengen aufbaut. Damit konnten wir die Verkaufsprognosen um 10 bis 20 % verbessern.“

Ein Beispiel aus der Industrie, wo die Instandhaltung ein großer Kostenfaktor für die Unternehmen ist. „Viele Ingenieure verfügen über wertvolles Know-how zu diesem Thema, aber bei ihrem Eintritt in den Ruhestand gehen diese Informationen verloren. Wenn man solche Maintenancekenntnisse in KI-Lösungen überträgt, bleiben sie erhalten und sorgen weiter für effiziente Prozesse“, erläutert er.

Ein anderes Beispiel: In einem Blumengroßmarkt prognostizierte ein erfahrener Verkäufer die Verkaufsmengen für die kommenden Wochen. „Wir haben mit dem Kunden eine Wette abgeschlossen: Wir wollten ein Programm schreiben, das noch zuverlässigere Prognosen macht. Wir haben ein prädiktives Modell entwickelt, das auf großen Datenmengen aufbaut – Verlaufszahlen, Wetterdaten usw. Damit konnten wir die Verkaufsprognosen um 10 bis 20 % verbessern. Der Kunde war sehr zufrieden. Und der Verkäufer kann sich jetzt auf seine Vertriebsaufgaben konzentrieren. Denn solche Algorithmen sollen die Mitarbeiter nicht ersetzen, sondern es ihnen ermöglichen, ihre Talente besser zu nutzen“, ergänzt der Business Unit Manager von Axians Niederlande.

(1) http://www.latribune.fr/opinions/blogs/in-data-we-trust/comment-l-intelligence-artificielle-va-s-imposer-dans-le-big-data-634719.html

 

17/10/2017