robotik  ethik robot hands human
Business IT Digitalisierung

Im Dienst der Menschheit

25.03.2022
von Lisa Allemann

Die Industrie 4.0 wird massgeblich von der Robotik und der KI mitgestaltet. Unternehmen setzen aber auch in anderen Bereichen als der Produktion vermehrt auf intelligente Software. Das wirft Fragen bezüglich der Robotik und Ethik auf.

Die Diskussion rund um den Einsatz von KI-betriebenen Robotern ist nichts Neues. Weit auseinander gehen die einzelnen Zukunftsszenarien, die entweder von einer Übernahme unserer Welt durch die Roboter oder von einem friedvollen Zusammenleben handeln.

Auch im wirtschaftlichen Sektor liegen die Hoffnungen und Befürchtungen nahe beieinander. Prominente Argumente wären beispielsweise die enormen Zeit- und Ressourceneinsparungen auf der einen und der Verlust von Arbeitsplätzen auf der anderen Seite.

Ein reflektierter Einsatz von Technik

Die Technik hat uns bisher viele Vorteile und Erleichterungen gebracht, das steht ausser Frage. Trotzdem sei es nützlich, neue Errungenschaften zu hinterfragen und nicht per se zu übernehmen. «Oftmals fehlen diverse Blicke auf die Technik, vor allem, wenn es darum geht, ob diese im spezifischen Fall auch tatsächlich sinnvoll ist», sagt Dr. Florian Krause, Senior Research Fellow der Universität St. Gallen.

Ein Roboter hat keine Vorstellung davon, was Verantwortung und Schuld ist. Bis heute schreiben wir ihm diese auch nicht zu.»

Er führt aus: «Ein interdisziplinärer Blick auf Technik hilft dabei, ein komplexeres Bild des Ganzen zu zeichnen. Dadurch könnten künftige Probleme im Vornherein erkannt und entsprechend angegangen werden.» So ist die Replikation von diskriminierenden sozialen Strukturen womöglich kein Problem, mit dem sich Programmierer:innen aufhalten – dafür aber andere Fachleute. Ausserdem meint Krause: «Eine KI ist immer nur so gut wie ihr Trainingsdatensatz. Werte wie Fairness, Umwelt- oder Datenschutz kann ein Computer nicht verstehen. Man muss ihm beibringen, mit relevanten Faktoren zu rechnen.»

Roboter können keine Entscheidungen treffen

Damit erübrigt sich auch schon die Frage danach, ob ein KI-betriebener Roboter eigenständig Entscheidungen treffen und moralisches Handeln erlernen kann. «Wenn man von aussen auf den Roboter blickt, könnte man durchaus denken, dass dieser handelt, als ob er sich entschieden hätte. Geht man aber ins Detail, sieht man, dass der Roboter nur auf Daten, Berechnungen und Wahrscheinlichkeiten reagiert», erklärt Krause.

«Es gibt nicht die eine Ethik oder die eine Technik.»

Der Roboter optimiert Arbeitsschritte, kann sich aber nicht selbst Ziele setzen oder sich für die Variante mit der kleinsten Wahrscheinlichkeit entscheiden, ohne dass ihm das vorgegeben wurde. «Deswegen wird auch Ethik schwierig. Ein Roboter hat keine Vorstellung davon, was Verantwortung und Schuld ist. Bis heute schreiben wir ihm diese auch nicht zu», so Krause. 

Robotik und Ethik

Die Debatte um Robotik und Ethik werde oft zu verkürzt geführt. «Es gibt nicht die eine Ethik oder die eine Technik. Um einen Umgang mit einer Technik ethisch zu beurteilen, muss die jeweilige Technik betrachtet werden», sagt Krause. Letztlich lässt sich aber sagen, dass unsere moralischen und sozialen Werte die Erschaffung und Programmierung von Robotern genauso wie ihre gesellschaftliche Implementierung beeinflusst.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.

Vorheriger Artikel Auch im Notfall einsatzfähig
Nächster Artikel White-Hat-Hacker:innen sind die kritischen Stimmen