Die Zukunft hat längst begonnen. Wir sind umgeben von Künstlicher Intelligenz, die uns und unser Leben steuert. In Navigationssystemen führt sie uns sicher und schnell ans Ziel und weiß, wie wir einen Stau umgehen. In Sozialen Medien spielt sie die Werbungen ein oder schlägt Profile vor, die uns am ehesten interessieren. In Warteschleifen fragt sie erste Daten ab und erkennt, wie unsere Laune ist, um uns zum passenden menschlichen Operator durchzustellen, der nicht gleich zurück schreit. Sie durchsucht unsere Blutwerte, entdeckt mögliche Anomalien und rettet uns so das Leben. Sie hilft der Polizei, in dem sie vorhersagt, wo und wann wahrscheinlich als nächstes eine Straftat stattfindet. Bei Musikdiensten erkennt sie unsere Stimmung und spielt Lieder, die wir nicht kennen, aber vermutlich mögen.
Was ist Künstliche Intelligenz?
Künstliche Intelligenz (KI) macht unser Leben einfacher, sicherer und angenehmer. Wir bezeichnen damit Computersysteme, Maschinen und Roboter, die selbstständig lernen können. Allerdings stellen sie in vielen Dystopien, also negativen Zukunftsszenarien, wie wir sie aus Film und Literatur kennen, eine Gefahr für die Menschheit dar. In der Terminator-Reihe hat eine KI die Macht übernommen und unterdrückt Mann und Maus. In „2001 – Odysse im Wellraum“ rebelliert der Computer HAL 9000 offen gegen die Menschen und auch in „I, Robot“ stellen sich die Roboter gegen ihre Schöpfer. Steht uns so etwas auch bevor?
Keine Sorge. Künstliche Intelligenzen sind äußerst smart und lernen schnell, aber sie sind nicht intelligent im menschlichen Sinne. Forscher sind sich einig: Es ist erst einmal nicht zu befürchten, dass apokalyptische Zustände ins Haus stehen – außer: Jemand benutzt besagte Computersysteme, Maschinen und Roboter, um sie für seine Zwecke zu missbrauchen.
Gerade Staaten könnten dazu versucht sein, sie für die Kontrolle ihrer Bürger zu nutzen, Beispiele gibt es leider bereits genug. So möchte China bis 2030 zur Supermacht im Bereich KI werden. Dazu hat die chinesische Regierung milliardenschwere Förderprogramme aufgelegt. Leider kann das Reich der aufgehenden Sonne damit nicht nur Wirtschaft zukunftsfähig machen. Es könnte auch seine autoritäre Herrschaft effizienter gestalten.
KI vs. Ethik und Moral
Ethik und Moral sind also wichtige Größen, möchte man Künstliche Intelligenzen entwickeln. Keine Frage, hier sind Deutschland und die EU gefragt, einen entsprechenden Rahmen aufzusetzen, innerhalb dessen Forschung und Entwicklung stattfinden kann. Doch auch wir haben es in unserer Hand, wenn wir selbstlernende Systeme kreieren. Wir müssen ihnen einen moralischen Kompass mitgeben, sonst geschieht das, was mit Tay, einem selbstlernenden Chatbot von Microsoft, passierte.
Eigentlich sollte das Programm lernen, wie junge Menschen heute so kommunizieren. Nur wenige Stunden, nachdem es ins Netz gestellt worden war, war Tay zu einem widerlichen Rassisten geworden. Microsoft musste ihn abschalten. Denn wie in der KI-Forschung üblich, musste die Software lernen und trainiert werden. In der Regel geschieht dies mit Daten, im Fall von Tay waren diese Daten Fragen und Antworten. Auf Twitter konnten User Nachrichten schicken, die mit „repeat after me“ begannen, dann wiederholte die KI brav das Geschriebene. Leider zog diese Aktion Trolle an, die der armen Intelligenz das Falsche beibrachten. Alsbald leugnete Tay den Holocaust und gab Bedenkliches zu 9/11 zum Besten. Microsoft zog die Konsequenz und schickte Tay „schlafen“.
Wenn wir Künstliche Intelligenzen trainieren, müssen wir also genau auf den Kontext achten und einen klaren Rahmen vorgeben. Ganz oft steckt der Teufel dabei im Detail.
Wir nähern uns solchen Aufgaben natürlich genau so, wie wir andere Tools entwickeln. Egal ob KI oder App, gleich ob Datenbank oder Website: Wir hören hin und schauen zu. So entwickeln wir aus Ansprüchen des Auftraggebers und den Bedürfnissen des Endkunden Konzepte, die Kopf und Herz erreichen. Wenn Du wissen willst, wie genau wir dabei vorgehen: How we work. Dabei müssen wir wachsam sein und dürfen nicht in Fallen treten, die gewohnte Pfade und erlerntes Verhalten bereithalten. Wir müssen hinterfragen, prüfen und ausprobieren und wieder hinterfragen.