Home > Künstliche Intelligenz > Ähnlichkeit schafft Geborgenheit und Glück. Bauen deshalb Entwickler humanoiden Roboter?

(Quelle: TheDigitalArtist / pixabay)

Wir suchen nach unserem Alter Ego, unserem Klon, dem Zwilling im Geiste. Wir glauben: Je ähnlicher wir uns sind, desto besser passen wir zusammen. Diese Annahme war über ein halbes Jahrhundert ein Dogma in der Beziehungsforschung. Nun stellt sich heraus: Es stimmt gar nicht. 

Das Glücksversprechen oder gar die glücksbringende Formel des Ähnlichkeitsprinzips hat die Psychologie widerlegt. Je ähnlicher wir uns sind, desto wahrscheinlicher die Ablehnung, könnte man jetzt rückschließen.

Paul Eastwick, Psychologe an der University of Texas, glaubt, dass Menschen ihre Beobachtungen oder Informationen über eine Ähnlichkeit oder über Unterschiedlichkeit nach ihrem individuellen Bauchgefühl bewerten. Je mehr sich beispielsweise zwei Menschen mögen, desto mehr Ähnlichkeiten fallen ihnen aneinander auf, und umso wichtiger erscheinen diese ihnen. Es ist somit keine faktische, sondern eine gefühlte Ähnlichkeit. Sie ist also nicht die Voraussetzung für Anziehung, Zuneigung, Liebe. Man hat sich verliebt und glaubt erst deshalb, dass man sich ähnlich ist.

Faszination des Ähnlichen: Angst vor dem Imitierenden

Ähnlichkeit schafft Geborgenheit und Glück. Bauen deshalb Entwickler humanoiden Roboter, die den Menschen imitieren? Wie der Roboter von Boston Dynamics, der eine Tür öffnet, um einem anderen Roboter den Vortritt zu lassen.

Studien zeigen jedoch, dass wir humanoide Maschinenwesen ablehnen. Wir akzeptieren hingegen Roboter, die kein menschliches Gesicht, keine Arme und Beine haben, die nicht unsere Physiognomie mit starren Bewegungen und kalten Gestiken imitieren.

Und doch ist dieses Science-Fiction-Szenario allgegenwärtig. Wissenschaftler und Entwickler warnen vor den Gefahren – dass sich der Mensch selbst abschafft. Es dominiert also noch unser Erschrecken vor der Ähnlichkeit und dem verängstigenden Moment, in dem wir erkennen, dass das Wesen vor uns ein humanoider Android ist, der so redet und sich so verhält wie wir und wir es entlarven – als Fälschung, als Mimikry.

Wann ist ein Mensch ein Mensch?

Damit stellt sich unweigerlich die Frage, wie sich der Mensch vom Roboter abgrenzt. Welche Fähigkeiten und Eigenschaften es für „das Menschsein“ braucht? Und schon wieder scheint die Abgrenzung wichtiger zu sein als das Verbindende, das Integrierende.

Brauchen wir also ein Verfahren, einen Schnelltest, der den Menschen erkennbar macht? Der bestimmt, was den Menschen im Unterschied zur Maschine ausmacht? Sind es Ironie, Empathie und Erfahrung? Wie messen wir diese und wie unterscheiden wir sie von Sprachausgabe, Algorithmus und Datenspeicher?

Und ist der Mensch mit all seinen Schwächen überhaupt das bessere Modell im Vergleich zur perfekten Maschine? Welche evolutionäre Entwicklung hat ein Ablaufdatum? Das Alte hinter sich zu lassen, hat immer schon Neues hervorgebracht – als Allererstes die Angst vor Neuem.

Vordenker wie der Physiker Stephen Hawking warnen davor, dass uns die Rechner in 100 Jahren überholen werden und auch Tesla-Gründer Elon Musk warnt unermüdlich vor der vernichtenden Kraft der künstlichen Intelligenz (KI). Diese Warnungen, KI auf Abstand zu halten, sind nicht neu. Schon vor 60 Jahren stellte Science-Fiction-Autor Isaac Asimov seine Roboter-Gesetze vor und warnte vor der Koexistenz zwischen KI und Menschen auf demselben Planeten.

Intelligente Herrschaft der Roboter

Derselbe Elon Musk sagt aber auch, dass autonomes Fahren, der Forschungsschwerpunkt von Tesla, ohne KI nicht funktioniert. Das autonome Auto muss mitdenken.

Wir alle kennen die ethischen Fragen in Verbindung mit KI. Kann die KI ethische Entscheidungen treffen? Soll sie das Auto in eine Kindergarten-Gruppe steuern statt die Rentnerin zu überfahren oder doch die dritte Option wählen, nämlich das Auto gegen die Häuserwand steuern und dadurch den Fahrer und seine Mitfahrer gefährden?

Wie ist der Algorithmus, der die zur Verfügung stehenden Daten auswertet? Welche und wie viele Daten sind notwendig? Welche Verantwortung haben die Entwickler und auch der Auftraggeber? Kann eine KI ethisch sein oder muss es nicht vielmehr der Entwickler als Hüter der Ethik (und mit welchem Ethikverständnis) sein? Welche Rolle muss der Gesetzgeber dabei einnehmen oder die Gesellschaft? Wieviel Ethik vertragen wir eigentlich?

Warum sind uns Antworten auf diese Fragen bei der KI so wichtig? 

Uns selbst stellen wir diese Fragen nicht. Wir verlangen keine Antworten oder einen Ethik-Test, bevor wir die Lizenz erhalten, ein Auto zu fahren. Warum nicht? Weil wir es besser können? Allein 2017 gab es nach Angaben des Statistischen Bundesamtes mehr als 302.000 polizeilich erfasste Unfälle mit Personenschaden und 3.108 Verkehrstote.

Wir Menschen glauben, dass eine auf Daten und Algorithmus basierte Entscheidung schlechter, amoralischer ist als die menschliche Reaktion – wie auch immer die beeinträchtigt sein kann, etwa durch Alkohol, Ablenkung, Müdigkeit? Oder fürchten wir genau das Gegenteil, dass nämlich die autonome Entscheidung der KI uns unsere Schwächen noch deutlicher vor Augen führt?

Doch im Grunde wünschen wir uns eine ethische Welt. Ethik sollte die Infrastruktur von KI sein. Denn es ist uns durchaus bewusst, was uns Menschen auszeichnet – wir wiederholen unsere Fehler und leiten aus Erkenntnissen nicht immer die notwendigen Maßnahmen ein. Wir sind unberechenbar. Wir leben und Leben ist Veränderung. Wir wissen, dass sich das Klima dramatisch schnell wandelt, wir kennen die Hungersnöte, die durch Krieg und Ungerechtigkeiten ausgelöste Flucht von Millionen von Menschen. Ja, wir kennen auch die Auswirkungen. Was bleibt ist das „Aber“.

Wäre vielleicht eine intelligente Herrschaft der Roboter, ohne Emotionen, dafür rein faktisch basiert vielleicht keine „unberechenbare“ Schreckensherrschaft, sondern die Lösung unserer Probleme? Aber wir sind nicht bereit, den Preis dafür zu bezahlen, nämlich den Verlust von Selbstbestimmtheit, Individualität und der Freiheit, auch falsche Entscheidungen zu treffen.

Eigentlich sollte jeder verständige Mensch diese ideale Welt loben. Aber wäre diese puritanische Ordnung noch eine Welt mit Kultur, Würde und Lebensfreude? Gäbe es in dieser Welt tiefe und spannende menschliche Beziehungen mit menschlicher Wärme und Achtsamkeit? Wäre der Mensch, der keine Entscheidungen mehr treffen darf, die nicht ideal sind, weil vielleicht gefühls-geleitet, überhaupt noch Mensch oder schon Objekt, die schlechtere Maschine? Ein Algorithmus kann das nicht berechnen. Wir Menschen schaden manchmal unseren Mitmenschen – und doch akzeptiert der Mensch das Menschliche und damit die Fehlbarkeit.

Der Mensch unterschätzt sich selbst

Sind die Unkenrufe, die Warnungen, die Angst Ausdruck unserer Selbstunterschätzung? Wir fürchten das Unbekannte, das Neue. Und wir meinen damit heutzutage oft die KI oder den Roboter. Dieses Neue hat die Kraft, die bisherige Ordnung abzulösen. Aber was ist mit der Kraft des Menschen, Neues zu erschaffen, sich zu entwickeln, neu zu erfinden? Wieso unterschätzen wir unsere eigenen Fähigkeiten so sehr, wenn wir über KI sprechen? Der Mensch ist schöpferisch und ist aus jeglicher Veränderung gestärkt hervorgegangen. Johan Huizinger beschreibt den Menschen in seinem Buch als „homo ludens“, den spielerischen, schöpferischen Menschen und seine Neugier als kulturbildenden Faktor. Wenn wir KI wirklich mit Intelligenz ausstatten und nach unserem Vorbild trainieren, dann wird sie auch spielerisch und neugierig sein. KI wird uns als geistigen Sparringspartner schätzen, statt die Menschheit vernichten zu wollen.

Professor Oliver Bendel, Wirtschaftsinformatiker und Buchautor ist der Überzeugung, dass KI dem Menschen das Arbeiten und in Teilen auch das Denken abnehmen wird, aber nicht dessen Genialität. „KI kann kein Shakespeare sein“, sagte er in der Juli-Ausgabe 2017 des National Geographic Magazins. KI sei hingegen ein Spiegel, der dabei helfe, dass der Mensch sich selber besser erkennt als früher.

Aber was können wir von KI lernen, welche Eigenschaft ergänzt uns Menschen? Das Auswendiglernen und Verarbeiten von Informationen können wir getrost KI übergeben und uns die gewonnene Zeit nehmen, um wieder neugieriger zu werden, zu fragen und zu hinterfragen. War Wissen in der Generation unserer Eltern überwiegend das Einprägen und Abrufen von Informationen, so wandelt es sich mit der jungen Generation in kreative Fragestellungen an Suchmaschinen. Dieses Kooperationsmodell schafft uns Freiräume. Wir müssen wieder lernen zu lernen, Fragen zu stellen, zu hinterfragen. KI verschafft uns die Zeit dafür. Als Menschen sind wir für die Erhaltung der Würde und Souveränität des Menschen verantwortlich. Wir haben die intelligente Technologie der KI erschaffen. Daher müssen wir ihr auch einen ethischen Rahmen setzen. Wir müssen der führende Part in diesem Zusammenspiel sein und durch Kontrollmechanismen darauf achten, dass die letzte Meile menschlich bleibt.

Durch diese klare Forderung an uns selbst, können wir Vorbehalte bzw. Ängste vor dieser Technologie mildern, respektive nehmen: Denn eine gute Kooperation zwischen Mensch und Maschine bringt Vorteile und Mehrwert für uns, die Menschen und die Gesellschaft, Man denke beispielsweise an mögliche Fortschritte in der Krebsforschung oder beim Kampf gegen Alzheimer.

Vor diesem Hintergrund haben wir in unseren KI-Leitlinien auch folgendes formuliert: 

Wir kennen und glauben an die menschlichen Stärken wie Inspiration, Intuition, Sinneswahrnehmung und Empathie. Aber wir erkennen auch die Stärken von KI wie Datentransfer, Verarbeitungsgeschwindigkeit und Analyseressourcen. Durch die Kooperation von Mensch und Maschine können KI-Systeme den Menschen helfen, bessere Entscheidungen zu treffen und Ziele effektiver und effizienter zu erreichen.

Artikel bewerten:

Hinterlasse einen Kommentar:

GDPR Digitalbusiness.world

Die Flotte Medien GmbH möchte Ihnen den bestmöglichen Service bieten. Dazu speichern wir Informationen über Ihren Besuch in sogenannten Cookies, um die Seite für Sie zu verbessern und nutzerrelevant zu gestalten. Durch die Nutzung dieser Webseite erklären Sie sich mit der Verwendung von Cookies einverstanden. Detaillierte Informationen über den Einsatz von Cookies auf dieser Webseite erhalten Sie hier.

Einverstanden