In der
NZZ
wird der Stand der Künstlichen Intelligenz KI kommentiert. Die heutigen Systeme sind schon beeindruckend.
Die
Captschas sind sozusagen ein Testbett, um den
Stand der KI zu messen. Im Moment sieht es sehr schlecht aus f&uuuml;r Captchas. Die Menschen haben zum Teil
schon mehr Mühe, die Bildrätsel zu lösen, als die Maschine.
Was ist Intelligenz? Man hat es früher mit Wissen, oder mit der Fähigkeit, Rätsel zu lösen,
oder Spiele zu gewinnen definiert. In Spielen wie Schach oder
"Go"
hat der Mensch schon keine Chance mehr. Künstliche Intelligenz machen auch immer mehr Multiplayer Spielen
Probleme, denn automatische Roboter spielen die Spiele schon oft besser als Menschen.
Man schätzt, dass heute
48 Millionen Twitter Roboter operieren. Diese Accounts werden von Computern unterhalten, nicht von Menschen.
In Sachen Wissen ist es noch katastrophaler.
Die Wissensmachinen wie "Siri", "Wolfram Alpha", "Google Home", der "Alexa" wie "Echo Dot"
von Amazon oder der Microsoft "Cortana" sind besser wie der Brockhaus vor der Zeit des Internets. Diese Programme
wissen, wie man Wissen sammelt und sucht, oft schon besser als Menschen. Was denn mit emotionaler oder sozialer
Intelligenz? Da happert es noch, doch auch dort macht die Maschine Fortschritt.

Der Englische Mathematiker "Alan Turing" hat sich 1950 einen einfachen Test ausgedacht, um zu Testen ob
eine Maschine Intelligent ist. Der Test ist brutal einfach und wird ständig in Wettbewerben wie
dem Loebner Preis ausgelotet. Der Test heist heute
Turing Test.
Es ist interessant, dass wie auch immer Intelligenz beschrieben oder umdefiniert wird, mit dieser Definition
bald die Maschine besser wird. Es ist auch vielleicht ein menschliches Verlangen, die Tatsache zu verdrängen,
dass Intelligenz, Bildung, Wissenschaft oder Kunst, lange als das einzige, das wir noch besser als Maschinen
können, auch langsam aber sicher automatisch gemacht werden kann. Noch ist es nicht so weit, doch
der Fortschritt ist rasant.
Spracherkennung, selbständiges Autofahren, das Mathematisches Forschen, Programmieren. Das sind die
Gebiete, in denen die Maschinen im Moment enormen Fortschritte machen. Die Spracherkennung von Programmen
sind schon beachtlich. Autos fahren schon sicherer als Menschen in typischen Strassenumgebungen.
Neue mathematische Theoreme wurden schon von Maschinene gefunden. Viel Programmierarbeit, vor allem
im Bereich der künstlichen Intelligenz wird schon von Maschinen gemacht.
Aus dem NZZ Artikel:
Lange war die Erforschung der künstlichen Intelligenz (KI) erfolglos,
doch dann, nach der Jahrtausendwende, häuften sich die Hinweise,
dass neuronale Netzwerke sich unter praxisnahen Bedingungen bei Aufgaben
im Bereich der Mustererkennung bewähren könnten. Seit ein
paar Jahren überschlagen sich in diesem Teilbereich der KI, beim
Machine-Learning, die Erfolgsmeldungen. Seit kurzem gibt es Software,
die bei der Transkription von gesprochenen Äusserungen, beim Lesen
von handschriftlichen Notizen oder bei der Erkennung von Bildinhalten
den Menschen überlegen ist.
Bei neuronalen Netzwerken bilden Millionen von Neuronen und Abermillionen
von Verknüpfungen eine überaus komplexe Apparatur, bei der im
Verlauf eines langwierigen Trainingsprozesses Milliarden von Drehreglern
und Stellschrauben so justiert werden, dass sich die gewünschte
Zuordnung von Input und Output ergibt. Wie kann man beweisen, dass
diese Apparatur zuverlässig funktioniert? Man kann es nicht. Bei
der Bestimmung der Verlässlichkeit ist man auf Tests angewiesen.
Kann eine Gehirnwäsche Terroristen hervorbringen? Urs Hafner
Es ist deshalb nachvollziehbar, wenn ein altgedienter
Computerwissenschafter wie Ronny Ronen, der sich bei der Entwicklung
von Mikroprozessoren hervorgetan hat, angesichts von neuronalen
Netzen ein ungutes Gefühl hat. Laut Ronen ist die vorherrschende
Einschätzung die, dass diese Technik "im Grossen und Ganzen #schwarze
Magie#" ist. "Wir wissen, dass es funktioniert, aber wir verstehen
nicht, warum." Als Leiter des Intel Collaborative Research Institute for
Computational Intelligence hat Ronen Forschungsarbeiten initiiert, die
das Innenleben von neuronalen Netzwerken verständlich machen sollen.
"Verständliche KI" lautet das neue Leitbild, "explainable AI"
oder auch nur XAI. Hinter diesem Banner versammeln sich immer mehr
Wissenschafter. Die Forschungsabteilung der amerikanischen Armee,
die Defense Advanced Research Projects Agency (Darpa), hat zu Beginn
des Jahres ein Programm angekündigt, das universitäre
Forschungsteams während fünf Jahren bei der Entwicklung von
XAI unterstützen will.
Warum ist es überhaupt wichtig, in die Blackbox hineinzuschauen? Kann
man nicht einfach zufrieden sein, dass diese künstlich intelligente
Software meistens recht gut funktioniert und uns den Alltag erleichtert?
Apps wie Alexa (Amazon), Assistant (Google), Cortana (Microsoft) oder
Siri von Apple können gesprochene Befehle verstehen; Tag für
Tag übersetzt Google Translate mehr als 200 Millionen Texte;
Facebook ist seit Februar in der Lage, Gegenstände auf Fotos
zu identifizieren. Diese Systeme sind nicht perfekt, aber gut genug
für den Alltagsgebrauch. Warum sich sorgen, warum einen Blick in
die Blackbox wagen?
Das Gehirn lässt uns unsere Umwelt wahrnehmen und verstehen - und
bestimmt unsere Entscheide und Gefühle. Für die Wissenschaft
ist es die letzte grosse Blackbox des Menschen. Hier finden Sie alle
Beiträge.
Zunehmend wird KI in Bereichen eingesetzt, in denen Fehler unverzeihlich
sind. KI entscheidet über Milliardeninvestitionen, über
Militäroperationen; KI ersetzt den Fahrer oder den Arzt. Bei
all diesen Aufgaben reicht es nicht, wenn die Software oft recht
gute Ergebnisse erzielt. Wenn es darum geht, einen Gehirntumor, eine
Retinopathie, eine Herzrhythmusstörung oder eine Krebserkrankung
zu diagnostizieren, erwartet man von der Software nicht nur eine hohe
Verlässlichkeit, sondern auch die Fähigkeit, eine Diagnose
zu begründen.
Es hat sich nun aber gezeigt, dass sich neuronale Netzwerke leicht
übertölpeln lassen. Christian Szegedy von Google entdeckte 2014
einige - so der Titel seines vielzitierten Aufsatzes - "verblüffende
Eigenschaften von neuronalen Netzwerken": Es kann vorkommen, dass Fotos
nicht mehr erkannt werden, nachdem sie nur sehr geringfügig und
für das menschliche Auge nicht wahrnehmbar verändert worden
sind. Andere Forscher täuschten neuronale Netze mit Mustern: Der
Computer entdeckt nun in abstrakten Bildern konkrete Dinge, sieht einen
Pandabären oder eine E-Gitarre, wo das menschliche Auge nur Farben
und Formen erblickt. Diese Arbeiten zeigen, dass die Computer bei der
Bildanalyse anders vorgehen als Menschen und sie die Bilder nur sehr
oberflächlich analysieren. Die künstlich intelligente Software
ist wie ein Idiot savant manchmal zu Spitzenleistungen fähig,
manchmal abgrundtief dumm.
Bilder von handgeschriebenen Zahlen wurden geringfügig und
für Menschen unbemerkbar so verändert, dass sie für die
Maschinen einen anderen Wert darstellten. Nicht nur Bilder lassen sich
manipulieren, sondern auch akustische Eingabesignale: Es ist gelungen,
in ein Video gesprochene Befehle einzubetten, die das menschliche Ohr
nicht wahrnehmen kann, die sich aber der automatischen Spracherkennung
mitteilen konnten. Viele dieser Angriffe erzeugen bei unterschiedlichen
neuronalen Netzwerken ähnliche Ergebnisse, viele lassen sich
erfolgreich auch dann nutzen, wenn man die Innereien eines neuronalen
Netzwerks nicht kennt.
Es wurden Verfahren vorgestellt, um automatisch Bilder zu generieren,
an denen sich die neuronalen Netzwerke verschlucken; es ist aber auch
möglich, die Bildanalyse durch kleine Eingriffe in die Realität
in die Irre zu führen: Durch eine Veränderung des Lernprozesses
konnte eine Software, die Verkehrszeichen zuverlässig erkennen
konnte, dahin gebracht werden, dass sie diese Schilder nicht mehr
wahrnimmt, sobald sie mit einem gelben Klebezettel versehen worden sind.
All diese neuen Forschungsarbeiten, die versuchen, über
Hintertürchen und mit manipulierten Daten die Leistung von
neuronalen Netzwerken zu schwächen, sind interessant, denn sie
erlauben Rückschlüsse auf die innere Funktionsweise dieser
Netzwerke. Zuerst aber zeigen sie vor allem dies: Wir wissen viel zu
wenig über diese Software.