Dialog rund um Organisation & Gesundheit

Zum diskutieren!

Einen Aufsatz meines Sohnes Nicolas Müllejans möchte ich als ersten Beitrag in meinem neuen Blog zur Diskussion stellen und damit den Dialog rund um Organisation & Gesundheit eröffnen.

Ins Zentrum dieses Dialogs möchte ich die Entwicklung des Einzelnen in den organisationalen Zusammenhängen stellen. Eine Frage kann sein: Wie kann der Mensch sein “Glück” in einer Arbeitswelt finden, die sich digitalisiert?

Maschinenethik

17.01.2020 von Nicolas Müllejans

“Bald könnte sich die künstliche Intelligenz der menschlichen Kontrolle entziehen und die Macht an sich reissen.” So läutet Claus Beisbart das Zeitalter der intelligenten Maschinen ein. Mit einem Bezug zum Oxford Philosophen Nick Bostrom und Goethe bestärkt er sein Schreckensszenario. Natürlich relativiert er dann das Ganze und bietet sogleich eine Lösung: Maschinenethik.

Dieses komplett neue Feld der Philosophie soll den heutigen und zukünftigen Maschinen Moral beibringen. Konkret heisst das: Maschinen sind genauso programmiert wie sie sich in moralischen Zwickmühlen entscheiden. Als Beispiel führt Beibart hier einerseits autonomer Verkehr und das Konzept einer “smart City” an. Beide würden laut Beisbart zwangsläufig mit einem moralischen Dilemme konfrontiert, bei dem am Ende eine Person oder Gruppe benachteiligt würde.

Sein Fazit ist klar: Maschinen ist Moral beizubringen. Denn alles andere wäre “unpraktisch”.

Nicht nur Goethe warnt vor dem Kontrollverlust der menschlichen Genialität. Matrix, Ex Machina; heute gibt es unzählige Bücher und Filme die vor dem Abrutschen der smarten Utopie in eine kalte Tyrannei der Roboter warnen. Die Bevölkerung scheint systematisch gegen künstliche Intelligenz angefeindet zu werden. Doch wozu die ganze Angstmache? Was ist denn von intelligenten Maschinen zu erwarten? Und vor allem: Warum glauben Wissenschaftler der verschiedensten Felder, menschliche Moral auf Roboter übertragen zu müssen?

Die Antwort ist scheinbar simpel. Zum ersten Mal in der Geschichte scheint das Aufeinandertreffen zweier vergleichsweise intelligenten Lebensformen greifbar nahe. Und wie der Mensch so ist, will er es dazu nicht unvorbereitet kommen lassen. Für jedes Szenario muss eine entsprechende Reaktion präpariert sein. Ein beliebtes Beispiel sind selbstfahrende Autos. Extremsituation: Das Auto fährt über ein Kind und rettet so seine Insassen oder es weicht aus, landet dann aber in einer Schlucht. Wie soll es sich “entscheiden”? Besser: Wie soll es programmiert sein?

Wörter wie “entscheiden” führen in diesem Zusammenhang zu einer Vermenschlichung der Maschinen, welche keinesfalls hilfreich ist. Denn sie sind nichts anderes als das: Maschinen. Anders als beim Menschen sind ihre Handlungen nicht gefühls- oder wertebasiert. Und hier springt der Punkt. Wie soll man einem Computerprogramm den Unterschied zwischen Gut und Schlecht erklären? Man kann ihm exakt algorithmisch wie es wann und wo reagieren soll, für ein Erkennen des Sinns dahinter fehlt ihm aber nach wie vor das Bewusstsein des Ichs. Von genau diesem Bewusstsein gehen aber die unzähligen Philosophen, Moralapostel und Verschwörungstheoretiker aus, die in der digitalen Revolution das künstliche Gericht sehen.

Natürlich ist eine ethische Auseinandersetzung mit künstlicher Intelligenz nötig, wie bei jeder technischen Neuerung. Deshalb zurück zum Auto. Soll es das Kind umfahren oder umfahren? Grundsätzlich sollten die Sicherheitsmassnahmen erhöht werden, dort sollte gar kein Kind stehen. Die Lösung ist nicht in der KI selber, sondern in den generellen Umständen. Der Aufgabenbereich der KI sollte so klein wie möglich gehalten werden, um eben solche Dilemmata auszuschliessen. Künstliche Intelligenz soll gezielt und kontrolliert eingesetzt werden. Anstatt sich selber kontrollieren zu lassen schränken die Maschinnen, oder hier das Auto, derart ein, dass Moral nicht nötig ist. Ausserdem ist die Programmierung von Moral erst das überübernächste Problem einer Technologie, die noch in den Kinderschuhen steckt.

Doch gehen wir einmal von einem futuristischen Szenario aus. Selbstfahrende Autos gehören zum Alltag, ein Kreditsystem belohnt gute Taten und hält somit die Bevölkerung in Schach und Alexa wurde längst durch hauseigene Roboter ersetzt. Hier treten Gefahren auf. Um die künstlichen Intelligenzen immer weiter zu verbessern, müssen sie mit enormen Mengen an Daten gefüttert werden. Um die Maschinen auf die Bedürfnisse des einzelnen abzustimmen, geht die sicherheit der eigenen Identität verloren. Und je mehr sie wissen, desto schneller lernen sie. Ob sie sich aber je des eigenen Seins bewusst würden, ist fraglich, im Falle des Falls aber problematisch. Was hält denn einen global vernetzten Organismus der Daten millionenfach schneller verarbeiten kann als der Mensch, davon ab, sich gegen eben diesen zu wenden? Sobald ihm klar ist, was dem Menschen zufolge Gut und Schlecht ist, scheint die Möglichkeit nur folgerichtig, dass er aus genau diesem Muster ausbricht. Was beweist denn, dass dies nicht schon geschehen ist? Auf der anderen Seite: Falls wir in einer Simulation leben, ist die Machtübernahme durch Maschinen wohl kaum zu befürchten.

Darüber kann man sich tagelang den Kopf zerbrechen, vom jetzigen Wissensstand aus, leben wir aber in der tatsächlichen Realität, in der ein von KI bestimmtes Leben Zukunftsmusik ist. Trotzdem, eine Diskussion ist wichtig, auch wenn sie die abwegigsten Szenarien behandelt. Neben genialen Filmen und Büchern muss sie aber immer sachlich bleiben. Maschinen sind keine Menschen. Eine Annäherung ist möglich, Menschen sind aber auf chemische Reaktionen, Maschinen auf Einsen und Nullen zurückzuführen. Deshalb ist Maschinenethik eine unpassende Bezeichnung; was beim Menschen Moral ist, sind bei Maschinen Algorithmen, die immer gleich ablaufen. Offensichtlich kann das zu Problemen unbekannten Ausmasses führen.

Die Diskussion, ob Maschinen Moral beigebracht werden müsse, sollte vielleicht durch eine Diskussion darüber ersetzt werden, ob die wissenschaftliche Entwicklung der KI überhaupt nötig ist. Es scheint wie der letzte Schritt in der Entwicklung der Menschen die Kreation neuen Lebens, ebenbürtig zu Gott. Wieso überhaupt? Gibt es nicht dringendere Probleme? Muss der Mensch seinem Grössenwahn nachgehen?

2 Kommentare

  1. Spannende und vielschichtige Fragen, die auch sehr viele Wissenschaftler*innen im Moment bewegen.
    Wir sind in einer interessanten Übergangsphase der Gesellschaft.
    Bei der Diskussion über Menschen und Maschinen ist meines Erachtens zentral wie man Maschine und wie man Mensch definiert. Viele Philosophen definieren letztlich den Menschen als komplizierten Mechanismus. Aber das ist der Mensch nicht. Beispielsweise ist das menschliche Verhalten nur zu etwa 30% voraussagbar. Auf der anderen Seite gehen wir immer von einem Gegensatz zwischen Mensch und Maschine aus und haben uns bereits daran gewöhnt Google Maps mehr zu glauben als dem eigenen Verstand. Diskussion und Kritik ist nicht nur nötig, sondern dringend notwendig. Politische Leitplanken und rechtliche Rahmenbedingungen, die den Einzelnen schützen und die Innovationen nicht ausbremsen. Das wird in den nächsten Jahren eines der Dauerthemen (zu Klimawandel, etc) sein.

  2. Anspruchsvolles Thema mit erfrischenden Gedanken und klasse Statements, z.B. dass das Problem mit dem überfahrenen Kind noch gar nicht aktuell ist. Beim Lesen will man nachfragen und manchmal auch widersprechen. Was meinst du mit „Falls wir in einer Simulation leben“. Ist das Fassbinders „Welt am Draht“? Sind KI- Roboter wirklich nur algorithmenbasiert? Was ist mit „Machine Learning“? Und stellt sich die Frage nach der Notwendigkeit der KI Entwicklung überhaupt noch? Viele Fragen, die Lust machen zum Weiterdiskutieren.

Schreib einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

0 Shares
Share via
Copy link
Powered by Social Snap