Logo ManagementJournal
29. März 2018 | von Dr. Andrea Herrmann

Wie ethisch kann künstliche Intelligenz sein?

Durch künstliche Intelligenz können Maschinen menschliche Sprache verstehen und Dialoge führen, auf Bildern Dinge und Personen wiedererkennen, in großen Datenmengen Muster finden, daraus Schlussfolgerungen ziehen und Prognosen erstellen, Entscheidungen treffen und komplexe Prozesse verwalten. Künstliche Intelligenz kann Flugzeuge und Autos steuern oder Pakete ausliefern.

Die technischen Möglichkeiten der künstlichen Intelligenz werden noch lange nicht alle genutzt. Im Gegenteil. Das autonome Fahrzeug funktioniert schon lange, beginnt aber in Deutschland erst jetzt seine Testfahrten auf öffentlichen Straßen. Der Grund dafür sind rechtliche und versicherungstechnische Unklarheiten, hinter denen wiederum ethischen Überlegungen stehen.

Abbildung

Maschinen an sich können nicht ethisch handeln, denn ihnen fehlt die Grundlage dafür: Mitgefühl. Da sie keine Menschen sind, können sie sich nicht in Menschen hinein fühlen. Das ist im Straßenverkehr nicht unbedingt nötig. Aber wir erwarten doch, dass eine künstliche Intelligenz nicht unethischer handelt als ein verantwortungsbewusster, mitfühlender Mensch. Das Auto soll eben nicht einen Passanten absichtlich tot fahren, weil es berechnet hat, dass so der Schaden geringer ausfällt als wenn es sich selbst durch ein Ausweichmanöver zerstört. Es mag sein, dass künstliche Intelligenz gelegentlich Gefühle und vielleicht sogar ethisches Denken simulieren kann, aber es ist und bleibt eine Simulation, also Nachahmung. Elektrische Schaltkreise sind nun mal kein Gehirn.

Durch bessere Algorithmen und durch selbstlernende neuronale Netze kann die Simulation ethischen Denkens und Verhaltens immer besser werden. Die künstliche Intelligenz kann auf dieselbe Weise in ihren Job eingearbeitet werden wie ein Mensch: Man gibt ihr Regeln vor, und den Rest lernt sie von einem Ausbilder. Aber es bleibt die Frage: Ist es überhaupt ethisch, für einen bestimmten Zweck eine Maschine einzusetzen? Für besonders kritisch halte ich Entscheidungen. Solange ein Roboter nur Befehle ausführt, Probleme an Menschen meldet oder dem menschlichen Entscheider Informationen liefert, solange trägt der Mensch immer noch die Verantwortung. Trotz fähiger Autopiloten fliegen in Flugzeugen immer noch kompetente menschliche Piloten mit. Und medizinische Expertensysteme unterstützen den Arzt zwar durch Vorschläge und Interpretationen, aber die Entscheidung über eine Operation trifft immer noch der Mensch.

Genau so ist es richtig. Dabei geht es nicht nur um Haftungsfragen, denen der Softwarehersteller sicher gerne ausweichen möchte. Sondern es geht um die Zukunft unserer Welt. Dass die Maschinen irgendwann die Herrschaft an sich reißen werden, halte ich für sehr unwahrscheinlich. Aber dass die Menschen Entscheidungen gerne Maschinen überlassen und sich dann aus Bequemlichkeit das Denken abgewöhnen, das ist so gut wie sicher. Dann aber hängen unsere Zivilisation und unser Wohlergehen von Software und deren Herstellern ab und wird durch diese gelenkt. Bei einem Systemausfall könnten wir vor gefüllten Kühltruhen verhungern. Können heutzutage Chirurgen ohne Strom überhaupt noch arbeiten?

Im Sicherheitsbereich gilt die Regel, dass lebenswichtige Systeme redundant ausgelegt sein müssen und notfalls auch manuell in einen sicheren Zustand gebracht werden können (z. B.: Flugzeug landen, Atomkraftwerk herunterfahren). Dese Regeln sollten überall gelten. Bei der Entwicklung und dem Einsatz von künstlicher Intelligenz muss immer noch der Mensch der Entscheidungsträger bleiben. Die künstliche Intelligenz unterstützt ihn bestmöglich dabei. So können Mensch und Maschine als ein ideales Team zusammenarbeiten.

Dr. Andrea Herrmann

Deutsche Akademie für Management_Mitarbeitende
Dr. Andrea Herrmann
Dr. habil. Andrea Herrmann (www.herrmann-ehrlich.de) ist freiberufliche Software-Engineering-Trainerin und -Forscherin sowie Dozentin an der Universität Heidel­berg, der Hochschule für Technik in Stuttgart und an weiteren Hochschulen. Insgesamt hat sie 20 Jahre Berufserfah­rung, davon zehn in Forschung und Lehre sowie acht in der IT-Branche, u. a. als Research and Innovation Manager. (Quelle: Impressum des Studienbriefs)
Consent Management Platform von Real Cookie Banner