Die rasante Entwicklung von Machine Learning in den letzten Jahren hat eine Debatte über seine Auswirkungen auf die Menschheit ausgelöst. Stecken in dieser neuen Technologie Gefahren? Oder können wir die sich bietenden Chancen gezielt nutzen?
Machine Learning ist ein Teilgebiet der künstlichen Intelligenz. Es ermöglicht Maschinen, Muster in grossen Datenmengen zu erkennen und selbstständig Entscheidungen zu treffen. Das heisst, Computer können aus Daten lernen und Muster daraus erkennen, ohne explizit programmiert zu werden. Durch das Sammeln von Erfahrungen und die Anwendung von Algorithmen können Maschinen also immer besser werden – oder auch schlimmer.
Datenqualität bestimmt Algorithmus
Die Autonomie von Maschinen bringt eine Abhängigkeit von Daten mit sich, mit denen Algorithmen trainiert werden können. Wie bei einem Kleinkind prägt das tägliche Umfeld und alle Einflüsse den Charakter des Erwachsenen, genauso formen Trainingsdaten massgeblich die neuronalen Netzwerke. Fehler in der Architektur oder unvorhergesehene Situationen, wie beispielsweise die Verwendung von inakkuraten Daten, können zu unerwünschten Ergebnissen führen. Auch die Frage nach der Verantwortung für autonome Entscheidungen von Maschinen und die Notwendigkeit menschlicher Kontrolle bleiben stark umstritten.
Die Algorithmen werden durch umfangreiche Datenmengen trainiert, sodass ihre Leistung nur so gut ist wie die Qualität der zugeführten Daten. Falls die Daten verzerrt oder voreingenommen sind, besteht die Gefahr, dass die Algorithmen diese Vorurteile verstärken. Dies hat bereits zu Fällen von Diskriminierung bei Entscheidungen im Zusammenhang mit Beschäftigung, Kreditwürdigkeit und Strafverfolgung geführt. Um also die bestmöglichen Technologien zu entwickeln, braucht es die richtigen Daten – gute Daten. Diese sollten repräsentativ sein, die Realität angemessen widerspiegeln, von hoher Qualität und Konsistenz sein und über ausreichendes Volumen sowie Vielfalt verfügen, um eine zuverlässige Modellbildung und Generalisierung zu ermöglichen.
Daten – das neue Öl?
Philipp Schmid, Head Industry 4.0 & Machine Learning beim Schweizer Technologie-Innovationszentrum CSEM, spürt aktuell einen Krieg in der Industrie um die Datenhoheit. «Jeder glaubt, Daten seien das neue Öl – und keiner will teilen», bekräftigt er im Interview mit dem Schweizer Fachmagazin «Netzwoche». Der wahre Wert liegt ausschliesslich in annotierten Daten. Daten, welche von Expert:innen gelabelt wurden – diese sind besonders rar, aber auch äusserst wertvoll. Wie ein geregelter Zugang zu Daten aussehen könnte? Schmid schlägt eine enge Kooperation unter Konkurrenten vor. Das Dilemma besteht darin, dass gegenseitiges Vertrauen fehlt, obwohl jeder auf die Daten des anderen angewiesen ist. Hier ist eine Win-win-Situation für alle Beteiligten erforderlich.
Die Autonomie von Maschinen bringt eine Abhängigkeit von Daten mit sich, mit denen Algorithmen trainiert werden können.
Eine Idee wäre ein verschlüsselter Datensee in Kombination mit einem hochautomatisierten Krypto-Schlüsselaustausch. «Alle Firmen, Maschinen, Geräte und Komponenten können ihre Daten verschlüsselt in diesen Datenspeicher ablegen und je nach Bedarf Zugriffsanfragen an andere Benutzer senden», erklärt der Automationsexperte.
Big Data und Datenmissbrauch
Unternehmen sammeln immer mehr Daten, um sie auszuwerten und wichtige Erkenntnisse daraus abzuleiten. Doch wenn die Qualität von Daten nicht stimmt, sie beispielsweise veraltet, ungenau oder unvollständig sind, können Sicherheitsprobleme entstehen. Dann helfen auch hoch entwickelte Datenanalysetools, die zunehmend auf künstlicher Intelligenz basieren, wenig. Mit der exponentiell wachsenden Menge an kursierenden Daten steigt auch die Gefahr, dass sensible Daten in die falschen Hände geraten oder für unethische Zwecke missbraucht werden. Um den Datenschutz im Unternehmen zu gewährleisten, braucht es nicht Compliance- und Datenschutzrichtlinien, sondern auch Verantwortlichkeiten – zum Beispiel in Form eines CDO (Chief Data / Digital Officer).
Es besteht nicht nur die Angst, dass Daten missbraucht werden, sondern auch, dass Maschinen Entscheidungen treffen, die zu unkontrollierbaren Situationen führen – und zwar ohne menschliche Intervention. Genau hier setzt die Industrie 4.0 an. Diese vierte industrielle Revolution beschreibt die intelligente Vernetzung von Menschen, Maschinen und Produkten. Es gibt zahlreiche Möglichkeiten, diese intelligente Vernetzung zu nutzen. So können Unternehmen für eine flexiblere Produktion sorgen, wandelbare Fabriken schaffen, kundenzentrierte Lösungen anbieten, Logistikaufgaben optimieren, (gute) Daten nutzen und die ressourcenschonende Kreislaufwirtschaft pflegen.
Wird Big Data zum Beispiel mit leistungsstarken Analytics kombiniert, können Unternehmen viele geschäftsbezogene Aufgaben bewältigen. Sie können die Ursachen für Fehlfunktionen, Probleme und Defekte nahezu in Echtzeit feststellen. Risikoportfolios können innerhalb von Minuten neu berechnet werden und betrügerisches Verhalten aufgedeckt werden, bevor es sich auf das Unternehmen auswirkt. Machine und Deep Learning brauchen Big Data. Denn mit Big Data lassen sich verborgene Muster herausarbeiten und Antworten finden. Jedoch liegt der Fokus laut Philipp Schmid auf guter KI mit wenig Daten, Few Input Learning. Für viele Anwendungen sei die Menge an Daten gar nicht so entscheidend und schrecke KMUs eher ab.
«TimeGPT» könnte gerade bei dieser Entwicklung eine wichtige Rolle übernehmen. Die Plattform demokratisiert den Zugang zu hochmodernem Prognosewissen. «TimeGPT» ist ein generatives, vortrainiertes Vorhersagemodell für Zeitreihendaten. Es kann ohne Training präzise Vorhersagen für neue Zeitreihen treffen, wobei nur historische Werte als Input verwendet werden. Dabei «liest» es Zeitreihendaten ähnlich wie ein Mensch einen Satz liest – von links nach rechts. Es betrachtet Fenster vergangener Daten, die als «Tokens» bezeichnet werden können, und sagt voraus, was als Nächstes kommt. Diese Vorhersage basiert auf Mustern, die das Modell in vergangenen Daten erkennt und in die Zukunft extrapoliert. Unternehmen können das Modell für eine Vielzahl von Aufgaben einsetzen, zum Beispiel für Nachfrageprognosen, für die Erkennung von Anomalien und für Finanzprognosen – und so im Zeitalter von Big Data von den vorhandenen Daten profitieren.
Bisherige industrielle Revolutionen
Mechanisierung
Die Mechanisierung war ein Entwicklungsprozess der Landwirtschaft zwischen dem Ende des 19. und der zweiten Hälfte des 20. Jahrhunderts. Darunter versteht man die Unterstützung der menschlichen Arbeitskräfte durch den Einsatz von Maschinen und technischen Hilfsmitteln.
Elektrifizierung
Die Elektrifizierung begann in Folge der Industriellen Revolution Ende des 19. Jahrhunderts. Sie bezeichnet die Bereitstellung der Infrastruktur, die eine Region oder ein Land mit elektrischer Energie versorgt. In den 1880er-Jahren wurden ganze Städte und Industrieanlagen mit elektrischer Energie versorgt. Wechselstromsysteme ermöglichten die effiziente Übertragung dieser Energie über grössere Distanzen.
Automatisierung
Auch die Automatisierung begann im industriellen Kontext. Die Einführung der Dampfmaschine und die Verwendung von mechanischen Antriebssystemen führten zu einer ersten Form der Automatisierung in Fabriken. Im 20. Jahrhundert erlebte die Automatisierung einen erheblichen Aufschwung. Die Fliessbandproduktion und Massenfertigung trieben diesen Schritt an. Durch die Aufteilung von Produktionsaufgaben in kleine Schritte konnte die Effizienz gesteigert werden. Mitte des 20. Jahrhunderts ermöglichte die Entwicklung von elektronischen Computern eine Automatisierung von Berechnungen und Steuerungsaufgaben. Die Computer wurden in industriellen Anwendungen eingesetzt, um Prozesse zu überwachen und zu steuern.
Industrie 4.0: Digitalisierung und Vernetzung
Die Industrie 4.0 beschreibt die Integration von fortschrittlichen digitalen Technologien in Produktions- und Geschäftsprozesse. Dadurch wird die Effizienz gesteigert, die Flexibilität erhöht und neue Möglichkeiten der Wertschöpfung geschaffen. Maschinen, Anlagen und Prozesse werden über das Internet der Dinge, die Anwendung von künstlicher Intelligenz, Big-Data-Analyse, Cloud-Computing und fortschrittliche Robotik vernetzt. Die Industrie 4.0 zielt darauf ab, intelligente Fabriken zu schaffen, in denen Systeme autonom miteinander kommunizieren und kooperieren können.
Schreibe einen Kommentar