Rhetorik.ch

Knill+Knill Kommunikationsberatung

Knill.com
Aktuell Artikel Artikel Inhaltsverzeichnis Suche in Rhetorik.ch:

www.rhetorik.ch aktuell: (26. Okt, 2017)

Fortschritte in der AI

Rhetorik.ch Artikel zum Thema:

Quelle.
In der NZZ wird der Stand der Künstlichen Intelligenz KI kommentiert. Die heutigen Systeme sind schon beeindruckend. Die Captschas sind sozusagen ein Testbett, um den Stand der KI zu messen. Im Moment sieht es sehr schlecht aus f&uuuml;r Captchas. Die Menschen haben zum Teil schon mehr Mühe, die Bildrätsel zu lösen, als die Maschine.

Was ist Intelligenz? Man hat es früher mit Wissen, oder mit der Fähigkeit, Rätsel zu lösen, oder Spiele zu gewinnen definiert. In Spielen wie Schach oder "Go" hat der Mensch schon keine Chance mehr. Künstliche Intelligenz machen auch immer mehr Multiplayer Spielen Probleme, denn automatische Roboter spielen die Spiele schon oft besser als Menschen. Man schätzt, dass heute 48 Millionen Twitter Roboter operieren. Diese Accounts werden von Computern unterhalten, nicht von Menschen.

In Sachen Wissen ist es noch katastrophaler. Die Wissensmachinen wie "Siri", "Wolfram Alpha", "Google Home", der "Alexa" wie "Echo Dot" von Amazon oder der Microsoft "Cortana" sind besser wie der Brockhaus vor der Zeit des Internets. Diese Programme wissen, wie man Wissen sammelt und sucht, oft schon besser als Menschen. Was denn mit emotionaler oder sozialer Intelligenz? Da happert es noch, doch auch dort macht die Maschine Fortschritt.

Der Englische Mathematiker "Alan Turing" hat sich 1950 einen einfachen Test ausgedacht, um zu Testen ob eine Maschine Intelligent ist. Der Test ist brutal einfach und wird ständig in Wettbewerben wie dem Loebner Preis ausgelotet. Der Test heist heute Turing Test.

Es ist interessant, dass wie auch immer Intelligenz beschrieben oder umdefiniert wird, mit dieser Definition bald die Maschine besser wird. Es ist auch vielleicht ein menschliches Verlangen, die Tatsache zu verdrängen, dass Intelligenz, Bildung, Wissenschaft oder Kunst, lange als das einzige, das wir noch besser als Maschinen können, auch langsam aber sicher automatisch gemacht werden kann. Noch ist es nicht so weit, doch der Fortschritt ist rasant.

Spracherkennung, selbständiges Autofahren, das Mathematisches Forschen, Programmieren. Das sind die Gebiete, in denen die Maschinen im Moment enormen Fortschritte machen. Die Spracherkennung von Programmen sind schon beachtlich. Autos fahren schon sicherer als Menschen in typischen Strassenumgebungen. Neue mathematische Theoreme wurden schon von Maschinene gefunden. Viel Programmierarbeit, vor allem im Bereich der künstlichen Intelligenz wird schon von Maschinen gemacht.

Aus dem NZZ Artikel:
Lange war die Erforschung der künstlichen Intelligenz (KI) erfolglos, doch dann, nach der Jahrtausendwende, häuften sich die Hinweise, dass neuronale Netzwerke sich unter praxisnahen Bedingungen bei Aufgaben im Bereich der Mustererkennung bewähren könnten. Seit ein paar Jahren überschlagen sich in diesem Teilbereich der KI, beim Machine-Learning, die Erfolgsmeldungen. Seit kurzem gibt es Software, die bei der Transkription von gesprochenen Äusserungen, beim Lesen von handschriftlichen Notizen oder bei der Erkennung von Bildinhalten den Menschen überlegen ist. Bei neuronalen Netzwerken bilden Millionen von Neuronen und Abermillionen von Verknüpfungen eine überaus komplexe Apparatur, bei der im Verlauf eines langwierigen Trainingsprozesses Milliarden von Drehreglern und Stellschrauben so justiert werden, dass sich die gewünschte Zuordnung von Input und Output ergibt. Wie kann man beweisen, dass diese Apparatur zuverlässig funktioniert? Man kann es nicht. Bei der Bestimmung der Verlässlichkeit ist man auf Tests angewiesen. Kann eine Gehirnwäsche Terroristen hervorbringen? Urs Hafner Es ist deshalb nachvollziehbar, wenn ein altgedienter Computerwissenschafter wie Ronny Ronen, der sich bei der Entwicklung von Mikroprozessoren hervorgetan hat, angesichts von neuronalen Netzen ein ungutes Gefühl hat. Laut Ronen ist die vorherrschende Einschätzung die, dass diese Technik "im Grossen und Ganzen #schwarze Magie#" ist. "Wir wissen, dass es funktioniert, aber wir verstehen nicht, warum." Als Leiter des Intel Collaborative Research Institute for Computational Intelligence hat Ronen Forschungsarbeiten initiiert, die das Innenleben von neuronalen Netzwerken verständlich machen sollen. "Verständliche KI" lautet das neue Leitbild, "explainable AI" oder auch nur XAI. Hinter diesem Banner versammeln sich immer mehr Wissenschafter. Die Forschungsabteilung der amerikanischen Armee, die Defense Advanced Research Projects Agency (Darpa), hat zu Beginn des Jahres ein Programm angekündigt, das universitäre Forschungsteams während fünf Jahren bei der Entwicklung von XAI unterstützen will. Warum ist es überhaupt wichtig, in die Blackbox hineinzuschauen? Kann man nicht einfach zufrieden sein, dass diese künstlich intelligente Software meistens recht gut funktioniert und uns den Alltag erleichtert? Apps wie Alexa (Amazon), Assistant (Google), Cortana (Microsoft) oder Siri von Apple können gesprochene Befehle verstehen; Tag für Tag übersetzt Google Translate mehr als 200 Millionen Texte; Facebook ist seit Februar in der Lage, Gegenstände auf Fotos zu identifizieren. Diese Systeme sind nicht perfekt, aber gut genug für den Alltagsgebrauch. Warum sich sorgen, warum einen Blick in die Blackbox wagen? Das Gehirn lässt uns unsere Umwelt wahrnehmen und verstehen - und bestimmt unsere Entscheide und Gefühle. Für die Wissenschaft ist es die letzte grosse Blackbox des Menschen. Hier finden Sie alle Beiträge. Zunehmend wird KI in Bereichen eingesetzt, in denen Fehler unverzeihlich sind. KI entscheidet über Milliardeninvestitionen, über Militäroperationen; KI ersetzt den Fahrer oder den Arzt. Bei all diesen Aufgaben reicht es nicht, wenn die Software oft recht gute Ergebnisse erzielt. Wenn es darum geht, einen Gehirntumor, eine Retinopathie, eine Herzrhythmusstörung oder eine Krebserkrankung zu diagnostizieren, erwartet man von der Software nicht nur eine hohe Verlässlichkeit, sondern auch die Fähigkeit, eine Diagnose zu begründen. Es hat sich nun aber gezeigt, dass sich neuronale Netzwerke leicht übertölpeln lassen. Christian Szegedy von Google entdeckte 2014 einige - so der Titel seines vielzitierten Aufsatzes - "verblüffende Eigenschaften von neuronalen Netzwerken": Es kann vorkommen, dass Fotos nicht mehr erkannt werden, nachdem sie nur sehr geringfügig und für das menschliche Auge nicht wahrnehmbar verändert worden sind. Andere Forscher täuschten neuronale Netze mit Mustern: Der Computer entdeckt nun in abstrakten Bildern konkrete Dinge, sieht einen Pandabären oder eine E-Gitarre, wo das menschliche Auge nur Farben und Formen erblickt. Diese Arbeiten zeigen, dass die Computer bei der Bildanalyse anders vorgehen als Menschen und sie die Bilder nur sehr oberflächlich analysieren. Die künstlich intelligente Software ist wie ein Idiot savant manchmal zu Spitzenleistungen fähig, manchmal abgrundtief dumm. Bilder von handgeschriebenen Zahlen wurden geringfügig und für Menschen unbemerkbar so verändert, dass sie für die Maschinen einen anderen Wert darstellten. Nicht nur Bilder lassen sich manipulieren, sondern auch akustische Eingabesignale: Es ist gelungen, in ein Video gesprochene Befehle einzubetten, die das menschliche Ohr nicht wahrnehmen kann, die sich aber der automatischen Spracherkennung mitteilen konnten. Viele dieser Angriffe erzeugen bei unterschiedlichen neuronalen Netzwerken ähnliche Ergebnisse, viele lassen sich erfolgreich auch dann nutzen, wenn man die Innereien eines neuronalen Netzwerks nicht kennt. Es wurden Verfahren vorgestellt, um automatisch Bilder zu generieren, an denen sich die neuronalen Netzwerke verschlucken; es ist aber auch möglich, die Bildanalyse durch kleine Eingriffe in die Realität in die Irre zu führen: Durch eine Veränderung des Lernprozesses konnte eine Software, die Verkehrszeichen zuverlässig erkennen konnte, dahin gebracht werden, dass sie diese Schilder nicht mehr wahrnimmt, sobald sie mit einem gelben Klebezettel versehen worden sind. All diese neuen Forschungsarbeiten, die versuchen, über Hintertürchen und mit manipulierten Daten die Leistung von neuronalen Netzwerken zu schwächen, sind interessant, denn sie erlauben Rückschlüsse auf die innere Funktionsweise dieser Netzwerke. Zuerst aber zeigen sie vor allem dies: Wir wissen viel zu wenig über diese Software.

Rhetorik.ch 1998-2017 © K-K Kommunikationsberatung Knill.com