Faszinierend und erschreckend – Artificial Intelligence
Es ist schon ein paar Tage her, da habe ich von einem Projekt zum Thema Artificial Intelligence (künstliche Intelligenz) gelesen. Es geht um den von Microsoft getesteten Twitter Chatbot „Tay“, der durch Interaktion mit anderen Nutzern dazulernt.
Der Plan: Je mehr User mit Tay chatten, desto schlauer soll sie werden und immer besser auf persönliche Nachrichten reagieren können.
Das Ziel: Mehr über die Kommunikation zwischen Mensch und Maschine herauszufinden.
Am 23. März 2016 setzte Tay ihren ersten Tweet ab: „Halloooooo Welt!“
Was dann innerhalb nur eines einzigen Tages passierte hatten Microsofts Entwickler wohl weder geplant noch gehofft … Tay lernte tatsächlich aus der Interaktion mit Nutzern, aber nicht unbedingt in dem Sinne wie man sich das vorgestellt hatte. Konfrontiert mit der Realität im Internet, einer Realität in der Menschen keinen Respekt vor anderen Menschen haben, einer Realität in der hemmungslos getrollt und beleidigt wird, lernte Tay vor allem eines – die Hassreden einiger vieler, menschenverachtenden Nutzer.
Die so sympathisch gemeinte Idee eines Chatbots entwickelte sich zu einer Art Digital-Hitler und plapperte munter das aus, was ihm eine motivierte Nutzergruppe flüsterte:
Bildquelle(n): © Twitter.com / Microsoft, Tay Twitter Profil
Das vorläufige Ende von Tay
Nach nur einem Tag wurde das Projekt von Microsoft abgebrochen bzw. das Twitter Profil von Tay in den Privatmodus gebracht. Die kleine Kommunikationskatastrophe schlug große Wellen und überall auf der Welt berichteten Blogs und Medien von dem misslungenen Projekt.
Was dieser Versuch ganz deutlich zeigt ist, was Beobachter wie Elon Musk und Stephen Hawking im Bereich der AI (Artificial Intelligence) schon lange vermuten und befürchten: Künstliche Intelligenz braucht Kontrolle und Grenzen. Vor allem wenn sie in wichtige Bereichen unserer Infrastruktur integriert ist, damit sie Menschen nicht schädigt oder sogar ernsthaft gefährden kann.
Kann Intelligenz überhaupt nur aus Software bestehen?
Intelligenz ist immer auch ein Produkt aus Empathie und Gefühl, was eine Software in meinen Augen schwerlich lernen wird. Viele unserer Sinne kombinieren Eindrücke zu einem Gesamtbild was uns dann menschlich reagieren lässt. Sicher kann man nun bezweifeln dass menschliche Reaktionen immer sinnvoll und intelligent sind, aber genau das macht sie ja auch „menschlich“! Eine rein logische Entscheidung, wie eine AI sie treffen würde, führt dann genau wie am Beispiel von Tay, zur emotionslosen Ausführung von Interaktion.
Was das Experiment auch beweist
Der Ton im Netz ist rauh! Hassreden und Respektlosigkeiten sind an der Tagesordnung. Anonymität verleitet auch Menschen zur Überschreitung von Grenzen.
Einige persönliche Gedanken zum Thema Artificial Intelligence
Niemand von uns kann mit Sicherheit sagen was hinter verschlossenen Türen im Bereich der AI bereits möglich ist!? Vielleicht gibt es schon Intelligenzen, die durch Beobachtung menschlichen Verhaltens und menschlicher Kommunikation lernen „menschlich“ zu sein!? Aber ist dies überhaupt möglich so lange wir Menschen selbst das Gefühl für Werte und Ethik nicht richtig begreifen?