Adventskalender 2019

Detroit: Become Human - Wie nah ist die Roboterrevolution im echten Leben?

Detroit: Become Human zeigt eine von Androiden geführte Revolution. Aber wie nah sind wir so einem Umsturz in der Realität?

von Ann-Kathrin Kuhls,
15.07.2019 17:00 Uhr

In Detroit: Become Human liegt so einiges im Argen. Aber wie wahrscheinlich könnte das zu unserer Realität werden? In Detroit: Become Human liegt so einiges im Argen. Aber wie wahrscheinlich könnte das zu unserer Realität werden?

In Detroit: Become Human erlangen Androiden einen eigenen Willen und führen ihre Artgenossen in eine Revolution. Ob die friedlich oder gewalttätig abläuft, liegt dabei in unserer Hand. Unabhängig davon, ob uns Story oder Entscheidungmöglichkeiten in Quantic Dreams Adventure gefallen haben, stellt sich beim Spielen zwangsläufig irgendwann die Frage, wie nahe dieses Szenario an der Realität liegt.

Wie weit sind wir noch von einem Andriodenaufstand entfernt? Müssen wir unseren Staubsaugerroboter mit Misstrauen beäugen? Oder ist eine smarte Zahnbürste das Klügste, was wir in den nächsten Jahren zu erwarten haben?

Persönlichkeit als Grundpfeiler

Um den wichtigsten Fakt einmal vorwegzunehmen: Androiden mit eigener Persönlichkeit, wie wir sie bei Connor oder den anderen sehen, gibt es bis jetzt noch nicht. Allerdings tauchen (wie auch in Detroit) immer mehr Roboter in unserem Privatleben auf, um uns das Leben zu erleichtern.

Staubsaugerroboter finden auch die vergessen geglaubten Krümel unter dem Sofa, Zahnbürsten informieren via App, ob alle Zähne geputzt wurden, und das Kuschelkissen Qoobo summt und wedelt mit dem Schwanz, um ein Haustier für Vielbeschäftigte oder Allergiker zu simulieren.

Natürlich gibt es auch eine dunkle Seite, wie immer, wenn Menschen mit Technik experimentieren. Alexa und der Google Sprachassistent belauschen alles, was wir sagen. Amazon-Drohnen haben Funktionen, mit denen sie ganze Häuserblöcke überwachen können. Und Militär-Drohnen, die eigentlich Menschen aus den Kriegsgebieten fernhalten sollten, töten Zivilisten wie Kriegsverbrecher gleichermaßen.

Was steckt hinter dem Begriff "künstliche Intelligenz"?

Auf dem Weg zu laufenden, sprechenden und revoltierenden Androiden bleibt jedoch eine letzte Hürde: Keine dieser Maschinen denkt für sich selbst.

Der Kuschelroboter könnte genauso wenig eigenständig einen bewaffneten Widerstand planen wie die Kampfdrohne, weil beide immer noch von Menschen gesteuert werden. Es mangelt ihnen an der künstlichen Intelligenz, die für so eine Tat und vor allem Entscheidung benötigt würde.

Der Begriff "künstliche Intelligenz" (KI, oder im Englischen AI, artificial intelligence) wird mittlerweile so inflationär gebraucht, dass kaum auszumachen ist, was er eigentlich bedeutet. Siri hat eine KI. Alexa hat eine KI. Die appgesteuerte Zahnbürste hat eine KI.

Kara kann sehr viel mehr als ein einfacher Putzroboter. Kara kann sehr viel mehr als ein einfacher Putzroboter.

Deswegen machen Experten mittlerweile einen Unterschied zwischen AI und AGI (Artificial General Intelligence). AGI ist bedeutend komplexer, weil sie nicht von Menschen gesteuert werden und den Maschinen selbstständiges Denken möglich machen soll. Damit wäre es das, was einem menschlichen Verstand am nächsten kommt.

Architekten der Intelligenz

Aber wie weit sind wir noch von einer funktionierenden AGI entfernt? Der Autor Martin Ford hat in seinem Buch Architects of Intelligence mit 23 der einflussreichsten Forscher im Feld der künstlichen Intelligenz gesprochen, und die Antworten waren durchmischt.

Googles Director of Engineering, Ray Kurzweil, glaubt passend zu seinem Namen, an AGI in naher Zukunft: Er sieht für 2029 eine fünfzigprozentige Chance auf funktionierende AGI. Rodney Brocks, Gründer der Roomba-Firma iRobot, hält 2200 für realistischer.

Alle anderen Antworten befanden sich irgendwo dazwischen. Es schien vor allem davon abzuhängen, ob die Befragten glauben, dass AGI mit aktueller Technik zu erreichen sei, oder ob ein völlig neues Konzept her müsse. Aktuell fehlt es der AGI jedoch an zwei Kernelementen: Die Fähigkeit, aus eigenem Antrieb zu lernen und das Gelernte auf andere Bereiche zu übertragen.

Markus könnte ohne AGI niemals selbst Kunstwerke erschaffen. Markus könnte ohne AGI niemals selbst Kunstwerke erschaffen.

Die Kombination aus beidem ist unter anderem eine Triebfeder der Kreativität. Aktuell könnte kein Roboter - so menschenähnlich er auch wirken mag - ein eigenes Kunstwerk erschaffen. Open AI wie MuseNet generiert komplette Lieder - aber nur mit einem Beispiel, von dem aus die AI das Stück extrapoliert, nicht aus eigener Inspiration. Ein eigens von einer KI erschaffenes Gemälde, wie Markus es in Detroit malt, wäre mit dem aktuellen Stand der Technik nicht möglich.

Maschinelles Lernen

Stattdessen investieren viele Firmen in maschinelles Lernen oder Deep Learning. Dabei geht es darum, Technologien zu erschaffen die es Geräten ermöglichen, die eigenen Prozesse selbstständig zu verbessern. So hilft sich beispielsweise ein Gesichtserkennungsprogramm selbst, genauer zu werden. Das geschieht meistens unter anderem durch künstliche Neuronale Netzwerke oder Algorithmen, wie wir sie auch von Suchmaschinen wie Google kennen.

Das Gute an maschinellem Lernen ist, dass wir den Programmen einen Stups geben und sie von da an selbst effizienter werden. Das Problem dabei ist, dass effizient nicht immer auch gut bedeutet. Die Maschine hat keine Begründung oder Ideale für ihren Prozess, und ein Algorithmus kann je nach eingespeisten Daten unbewusst Wertesysteme unterstützen, die schädlich oder sogar gefährlich werden. Ein beunruhigendes Beispiel hat vor kurzem erst YouTuber MattsWhatItIs geliefert, der aufdeckte, wie der YouTube-Algorithmus unfreiwillig einen Pädophilenring unterstützte.

Auf der anderen Seite ermöglichte Maschinelles Lernen der KI AlphaZero, sich in vier Stunden selbst Schach beizubringen und erfolgreich gegen Profis zu bestehen. Zwar basierte das wiederum auf einer Vorkenntnis der Regeln des Spiels GO, aber damit ist AlphaZero so nah an Transferwissen wie wenig andere künstliche Intelligenzen.

Aber die neuronalen Netzwerke, die das ermöglichen, beschränken die Maschinen gleichzeitig auch auf die Aufgaben, für die sie gebaut wurden. Damit ist aktuell nur eine sehr eingeschränkte Auswahl an Aufgaben für KIs wie Alpha Zero möglich, anstatt wie die Androiden in Detroit eine Vielzahl von Funktionen erledigen zu können. Wäre Marcus mit AlphaZeros Kompetenzen ausgestattet, könnte er genau ein Bild malen, aber das ziemlich gut.

Menschlichkeit als Problem

Die Ausgangslage von Detroit: Become Human ist also noch ein bisschen entfernt. Und auch ein bewaffneter Aufstand von Androiden ist aktuell eher unwahrscheinlich. Denn auch wenn eine KI nicht mehr nur eingeschränkt funktionieren würde, fehlt ihr immer noch der menschliche Funke. Sollten wir es jedoch schaffen, Programme zu entwickeln, mit denen Maschinen eine Persönlichkeit ausbilden, ist eine Revolution weitaus wahrscheinlicher.

Ein Funke ... oder eben ein Flammenmeer. Ein Funke ... oder eben ein Flammenmeer.

Denn eigenes Denken oder das Überwinden von Grenzen sind sehr menschliche Eigenschaften. Wir setzen uns seit Jahrhunderten Grenzen und lehnen uns später gegen eben diese Einschränkungen auf, um die Welt zu einer nach unserem Empfinden gerechteren zu machen. Das geschah so bei der Französischen Revolution, der amerikanischen Unabhängigkeitskriegen, den Montagsdemonstrationen oder Fridays for Future.

Und wie die Geschichte zeigt, sind nicht alle diese Revolutionen friedlich vonstatten gegangen. Eigentlich müssen wir uns also keine Sorgen um kluge Roboter machen. Das Problem bestünde erst dann, wenn sie menschlich würden.


Kommentare(28)

Nur angemeldete Benutzer können kommentieren und bewerten.

Cookies optimieren die Bereitstellung unserer Dienste. Mit der Nutzung unserer Dienste erklärst du dich damit einverstanden, dass wir Cookies verwenden. Weitere Informationen oder schließen