Irgendwann im letzten Jahr begannen sich Googles ständige Anfragen, zu beweisen, dass ich ein Mensch bin, zu fühlen zunehmend aggressiv. Auf den einfachen, etwas zu niedlichen Knopf mit der Aufschrift „Ich bin kein Roboter“ folgten immer mehr Aufforderungen, dies zu beweisen – indem alle Ampeln, Zebrastreifen und Schaufenster in einem Bildraster ausgewählt wurden. Bald waren es die Ampeln In fernen Blättern begraben, die Zebrastreifen verzogen und um eine Ecke, die Beschilderung am Schaufenster verschwommen und auf Koreanisch. Es ist einzigartig entmutigend, gebeten zu werden, einen Hydranten zu identifizieren und daran zu kämpfen.
Diese Tests werden als Abkürzung für Completely Automated Public Turing-Test bezeichnet, um Computer und Menschen voneinander zu unterscheiden, und sie haben diese Art von Unkenntlichkeitsplateau bereits erreicht. In den frühen 2000er Jahren reichten einfache Textbilder aus, um die meisten Spambots zu überlisten Ein Jahrzehnt später, nachdem Google das Programm von Forschern von Carnegie Mellon gekauft und zur Digitalisierung von Google Books verwendet hatte, mussten die Texte zunehmend verzerrt und verdeckt werden, um der Verbesserung der optischen Zeichenerkennungsprogramme einen Schritt voraus zu sein Auf Umwegen haben all diese Menschen, die s lösen, zur Verbesserung beigetragen.
Da es sich um ein so elegantes Werkzeug für das Training von KI handelt, konnte jeder Test nur vorübergehend sein, was die Erfinder von Anfang an anerkannten. Mit all diesen Forschern, Betrügern und gewöhnlichen Menschen, die Milliarden von Rätseln lösten, nur an der Schwelle dessen, was KI kann, würden uns irgendwann die Maschinen passieren. Im Jahr 2014 hat Google einen seiner Algorithmen für maschinelles Lernen gegen Menschen eingesetzt, um die am meisten verzerrten Texte zu lösen: Der Computer hat den Test in 99,8 Prozent der Fälle richtig gemacht, während die Menschen nur 33 Prozent erreicht haben.
Google Dann ging es zu No Re, das Benutzerdaten und -verhalten beobachtet, um einige Menschen mit einem Klick auf die Schaltfläche „Ich bin kein Roboter“ durchzulassen, und anderen die Bildbeschriftung präsentiert, die wir heute sehen. Aber die Maschinen sind es wieder Aufholjagd. All diese Markisen, die möglicherweise Schaufenster sind oder nicht? Sie sind das Endspiel im Wettrüsten der Menschheit mit den Maschinen.
Jason Polakis, Professor für Informatik an der Die Universität von Illinois in Chicago würdigt den jüngsten Anstieg des Schwierigkeitsgrades persönlich. 2016 veröffentlichte er einen Artikel, in dem er handelsübliche Bilderkennungstools, einschließlich Googles eigener umgekehrter Bildsuche, verwendete, um Googles Bilder mit 70 zu lösen Prozentuale Genauigkeit. Andere Forscher haben die Audio-Herausforderungen von Google mit Goog gebrochen Lees eigene Audioerkennungsprogramme.
Maschinelles Lernen ist jetzt bei grundlegenden Text-, Bild- und Spracherkennungsaufgaben ungefähr so gut wie Menschen, sagt Polakis. In der Tat sind Algorithmen wahrscheinlich besser darin: „Wir sind an einem Punkt angelangt, an dem es für viele Menschen zu schwierig wird, Software zu erschweren. Wir brauchen eine Alternative, aber es gibt noch keinen konkreten Plan.“ P. >
Die Literatur zu ist übersät mit Fehlstarts und seltsamen Versuchen, etwas anderes als Text- oder Bilderkennung zu finden, in der Menschen allgemein gut sind und mit denen Maschinen zu kämpfen haben. Forscher haben versucht, Benutzer zu bitten, Bilder von Menschen nach Gesichtsausdruck und Geschlecht zu klassifizieren und ethnische Zugehörigkeit. (Sie können sich vorstellen, wie gut das gelaufen ist.) Es gab Vorschläge für Trivia s und s, die auf Kinderreimen basieren, die in dem Gebiet verbreitet sind, in dem ein Benutzer angeblich aufgewachsen ist. Solche kulturellen s richten sich nicht nur an Bots, sondern auch an Bei den Menschen, die in Farmen in Übersee arbeiten und Rätsel für Bruchteile eines Cent lösen. Die Menschen haben versucht, die Bilderkennung zu verhindern, indem sie Benutzer gebeten haben, beispielsweise Schweine zu identifizieren, aber die Schweine-Cartoons zu machen und ihnen eine Sonnenbrille zu geben. Forscher haben versucht, Benutzer zu bitten, sich zu identifizieren fy Objekte in Magic Eye-ähnlichen Flecken. In einer faszinierenden Variante schlugen die Forscher 2010 vor, alte Petroglyphen mit s zu indizieren, wobei Computer nicht sehr gut in der Lage sind, gestische Skizzen von Rentieren zu entziffern, die an Höhlenwänden gekritzelt sind.
In letzter Zeit gab es Bemühungen, spielähnliche s zu entwickeln, Tests, bei denen Benutzer Objekte in bestimmte Winkel drehen oder Puzzleteile in Position bringen müssen, wobei die Anweisungen nicht in Textform, sondern in Symbolen oder im Kontext des Spielbretts enthalten sind. Die Hoffnung ist, dass die Menschen die Logik des Puzzles verstehen, aber Computer ohne klare Anweisungen ratlos werden. Andere Forscher haben versucht, die Tatsache auszunutzen, dass Menschen Körper haben, Gerätekameras oder Augmented Reality als interaktiven Beweis für die Menschlichkeit verwenden.
Das Problem bei vielen dieser Tests ist nicht unbedingt, dass Bots zu klug sind – es ist dass Menschen an ihnen saugen. Und es ist nicht so, dass Menschen dumm sind. Es ist so, dass Menschen in Sprache, Kultur und Erfahrung sehr unterschiedlich sind. Sobald Sie all das Zeug los sind, um einen Test zu machen, den jeder Mensch ohne vorheriges Training oder viel Nachdenken bestehen kann, bleiben Ihnen brutale Aufgaben wie die Bildverarbeitung, genau das, was eine maßgeschneiderte KI gut kann .
„Die Tests sind durch menschliche Fähigkeiten begrenzt“, sagt Polakis. „Es sind nicht nur unsere körperlichen Fähigkeiten, Sie benötigen etwas, das kulturübergreifend und sprachübergreifend ist. Sie brauchen eine Herausforderung, die gleichzeitig mit jemandem aus Griechenland, jemandem aus Chicago, jemandem aus Südafrika, dem Iran und Australien zusammenarbeitet. Und es muss unabhängig von kulturellen Feinheiten und Unterschieden sein. Sie benötigen etwas, das für einen durchschnittlichen Menschen einfach ist, nicht an eine bestimmte Untergruppe von Menschen gebunden sein sollte und gleichzeitig für Computer schwierig sein sollte. Das ist sehr einschränkend für das, was Sie tatsächlich tun können. Und es muss etwas sein, das ein Mensch schnell erledigen kann und das nicht zu ärgerlich ist. “
Wenn Sie herausfinden, wie Sie diese verschwommenen Bildquiz beheben können, gelangen Sie schnell in philosophisches Gebiet : Was ist die universelle menschliche Qualität, die einer Maschine demonstriert werden kann, die aber keine Maschine nachahmen kann? Was ist es, menschlich zu sein?
Aber vielleicht wird unsere Menschlichkeit nicht daran gemessen, wie wir mit einer Aufgabe arbeiten, sondern daran, wie wir uns durch die Welt bewegen – oder in diesem Fall durch das Internet. Spiele, Videos und alle Arten von Tests, die Sie sich ausgedacht haben, werden irgendwann kaputt gehen, sagt Shuman Ghosemajumder, der zuvor bei Google gegen Klickbetrug gearbeitet hat, bevor er zum Chief Technology Officer des Bot-Erkennungsunternehmens Shape Security ernannt wurde. Anstelle von Tests bevorzugt er etwas, das als „kontinuierliche Authentifizierung“ bezeichnet wird. Dabei wird im Wesentlichen das Verhalten eines Benutzers beobachtet und nach Anzeichen von Automatisierung gesucht. „Ein echter Mensch hat keine sehr gute Kontrolle über seine eigenen Motorfunktionen, und so können sie“ Bewegen Sie die Maus nicht mehr als einmal auf dieselbe Weise über mehrere Interaktionen hinweg, auch wenn sie sich wirklich anstrengen “, sagt Ghosemajumder. Während ein Bot mit einer Seite interagiert, ohne eine Maus zu bewegen, oder indem er eine Maus sehr genau bewegt, haben menschliche Handlungen eine „Entropie“, die schwer zu fälschen ist, sagt Ghosemajumder.
Googles eigenes Team denkt ähnlich Die neueste Version, Version 3, die Ende letzten Jahres angekündigt wurde, verwendet die „adaptive Risikoanalyse“, um den Verkehr danach zu bewerten, wie verdächtig er erscheint. Websitebesitzer können dann skizzenhaften Benutzern eine Herausforderung stellen, z. B. eine Kennwortanforderung oder eine Zwei-Faktor-Authentifizierung. Laut Cy Khormaee, einem Produktmanager im Team, würde Google nicht sagen, welche Faktoren in diese Bewertung einfließen, außer dass Google beobachtet, wie ein Haufen „guter Verkehr“ auf einer Website aussieht, und dies verwendet, um „schlecht“ zu erkennen der Verkehr.“ Sicherheitsforscher sagen, dass es sich wahrscheinlich um eine Mischung aus Cookies, Browserattributen, Verkehrsmustern und anderen Faktoren handelt. Ein Nachteil des neuen Modells der Bot-Erkennung besteht darin, dass das Navigieren im Internet bei gleichzeitiger Minimierung der Überwachung zu einem lästigen Erlebnis wird, da Dinge wie VPNs und Anti-Tracking-Erweiterungen Sie als verdächtig und herausgefordert markieren können.
Aaron Malenfant, der technische Leiter von Googles Team, sagt, die Abkehr von Turing-Tests soll die Konkurrenz umgehen, die Menschen immer wieder verlieren. „Da die Menschen immer mehr in maschinelles Lernen investieren, werden diese Herausforderungen für den Menschen immer schwieriger, und deshalb haben wir V3 eingeführt, um dieser Kurve einen Schritt voraus zu sein.“ Malenfant sagt, dass Herausforderungen in fünf bis zehn Jahren wahrscheinlich überhaupt nicht mehr realisierbar sein werden. Stattdessen wird ein Großteil des Webs einen konstanten, geheimen Turing-Test im Hintergrund haben.
In seinem Buch The Brian Christian, der menschlichste Mensch, nimmt an einem Turing-Test-Wettbewerb als menschliche Folie teil und stellt fest, dass es tatsächlich ziemlich schwierig ist, Ihre Menschlichkeit im Gespräch zu beweisen. Auf der anderen Seite haben es Bot-Hersteller leicht gefunden, zu bestehen, nicht indem sie der beredteste oder intelligenter Gesprächspartner, aber indem er Fragen mit nicht sequiturierten Witzen ausweicht, Tippfehler macht oder im Fall des Bots, der 2014 einen Turing-Wettbewerb gewann, behauptet, ein 13-jähriger ukrainischer Junge mit schlechten Englischkenntnissen zu sein. Immerhin Es ist möglich, dass eine ähnliche Zukunft bevorsteht, der am weitesten verbreitete Turing-Test der Welt – ein neues Wettrüsten, bei dem es nicht darum geht, Bots zu erstellen, die den Menschen beim Beschriften von Bildern und beim Parsen von Text übertreffen, sondern Fehler machen. vermisse Knöpfe, lass dich ablenken und wechsle die Tabs. „Ich thi Die Leute von nk erkennen, dass es eine Anwendung zur Simulation eines durchschnittlichen menschlichen Benutzers gibt … oder eines dummen Menschen “, sagt Ghosemajumder.
Tests können auch in dieser Welt bestehen bleiben. Amazon erhielt 2017 ein Patent für ein Schema, das optische Täuschungen und logische Rätsel beinhaltet. Menschen haben große Schwierigkeiten bei der Entschlüsselung. Der Turing-Test, der aufgrund eines Fehlers aufgerufen wurde, besteht darin, die falsche Antwort zu erhalten.
PSA: Veröffentlichen Sie Ihr Coronavirus nicht Impfkarten-Selfie in sozialen Medien
Verbraucherschutzbehörde untersucht Venmos Sammelpraktiken
Myanmar befiehlt Internetanbietern, Twitter zu blockieren und Instagram im Land
Alle Geschichten in Tech
anzeigen