W zeszłym roku zaczęły się wydawać ciągłe prośby Google o udowodnienie, że jestem człowiekiem coraz bardziej agresywny. Coraz częściej po prostym, nieco zbyt uroczym przycisku z napisem „Nie jestem robotem” pojawiły się żądania, aby to udowodnić – wybierając wszystkie sygnalizacje świetlne, przejścia dla pieszych i witryny sklepowe w siatce obrazów. Wkrótce sygnalizacja świetlna została zakopane w odległych liściach, przejścia dla pieszych wykrzywiły się i do połowy za rogiem, szyld sklepu rozmyty i po koreańsku. Jest coś wyjątkowo przygnębiającego w poproszeniu o zidentyfikowanie hydrantu przeciwpożarowego i walczeniu z nim.
Te testy są nazywane akronimem Całkowicie zautomatyzowanego publicznego testu Turinga, aby powiedzieć Computers and Humans Apart, i już wcześniej osiągnęły taki poziom niezrozumiałości. Na początku XXI wieku proste obrazy tekstu wystarczały, aby zepsuć większość robotów spamujących Jednak dekadę później, po tym, jak Google kupił program od badaczy Carnegie Mellon i użył go do digitalizacji Książek Google, teksty musiały być coraz bardziej wypaczane i zaciemniane, aby wyprzedzić ulepszanie programów do optycznego rozpoznawania znaków – programów, które w Ogólnie rzecz biorąc, wszyscy ci ludzie rozwiązujący problemy pomagali ulepszyć.
Ponieważ jest to tak eleganckie narzędzie do treningu sztucznej inteligencji, każdy test może być tylko tymczasowy, co jego wynalazcy przyznali na początku. Z tymi wszystkimi badaczami, oszustami i zwykłymi ludźmi rozwiązującymi miliardy zagadek tuż u progu tego, co potrafi sztuczna inteligencja, w pewnym momencie maszyny miały nas ominąć. W 2014 roku Google wykorzystał jeden ze swoich algorytmów uczenia maszynowego przeciwko ludziom w rozwiązywaniu najbardziej zniekształconych tekstów: komputer wykonał test poprawnie w 99,8% przypadków, podczas gdy ludzie w zaledwie 33%.
Google następnie przeniósł się do No Re, który obserwuje dane i zachowanie użytkowników, pozwalając niektórym ludziom przejść przez kliknięcie przycisku „Nie jestem robotem”, a innym przedstawia etykiety obrazu, które widzimy dzisiaj. Ale maszyny znów są nadrabianie zaległości. Wszystkie markizy, które mogą być witrynami sklepowymi lub nie? To koniec wyścigu zbrojeń ludzkości z maszynami.
Jason Polakis, profesor informatyki na University of Illinois w Chicago osobiście przypisuje niedawny wzrost trudności. W 2016 roku opublikował artykuł, w którym wykorzystał gotowe narzędzia do rozpoznawania obrazów, w tym własne wyszukiwanie odwrotne obrazów Google, aby rozwiązać obraz Google za pomocą 70 procentowej dokładności. Inni badacze rozwiązali problemy Google z dźwiękiem, używając Goog le własne programy do rozpoznawania dźwięku.
Uczenie maszynowe jest teraz tak samo dobre jak ludzie w podstawowych zadaniach związanych z rozpoznawaniem tekstu, obrazów i głosu, mówi Polakis. W rzeczywistości algorytmy są w tym prawdopodobnie lepsze: „Jesteśmy w punkcie, w którym utrudnianie pracy oprogramowania kończy się tym, że jest ono zbyt trudne dla wielu ludzi. Potrzebujemy jakiejś alternatywy, ale nie ma jeszcze konkretnego planu”.
Literatura na ten temat jest zaśmiecona fałszywymi startami i dziwnymi próbami znalezienia czegoś innego niż rozpoznawanie tekstu lub obrazu, w czym ludzie są uniwersalnie dobrzy iz czym zmagają się maszyny. Badacze próbowali poprosić użytkowników o klasyfikowanie obrazów ludzi według wyrazu twarzy, płci i pochodzenie etniczne. (Możesz sobie wyobrazić, jak dobrze poszło). Pojawiły się propozycje ciekawostek i oparte na rymowankach powszechnych na obszarze, w którym rzekomo dorastał użytkownik. Takie kultury są skierowane nie tylko do botów, ale na ludzi pracujących na zagranicznych farmach, rozwiązujących łamigłówki za ułamki centa. Ludzie próbowali utrudniać rozpoznawanie obrazu, prosząc użytkowników o identyfikację, powiedzmy, świń, ale robiąc im bajki i dając im okulary przeciwsłoneczne. Badacze zastanawiali się, czy poprosić użytkowników o identyfikację fy obiekty w plamach przypominających Magic Eye. W intrygującym wariancie naukowcy w 2010 roku zaproponowali użycie s do indeksowania starożytnych petroglifów, przy czym komputery nie radzą sobie zbyt dobrze z rozszyfrowywaniem szkiców gestów reniferów nabazgranych na ścianach jaskini.
Ostatnio pojawiły się wysiłki mające na celu stworzenie gier podobnych do gier, testów, które wymagają od użytkowników obracania obiektów pod określonymi kątami lub przesuwania elementów układanki w odpowiednie miejsce, z instrukcjami podanymi nie w tekście, ale w symbolach lub wynikającymi z kontekstu planszy. Jest nadzieja, że ludzie zrozumieją logikę układanki, ale komputery, którym brakuje jasnych instrukcji, będą zaskoczone. Inni badacze próbowali wykorzystać fakt, że ludzie mają ciała, używając kamer urządzeń lub rzeczywistości rozszerzonej do interaktywnego dowodzenia człowieczeństwa.
Problem z wieloma z tych testów niekoniecznie polega na tym, że boty są zbyt sprytne – to jest że ludzie je ssą. I nie chodzi o to, że ludzie są głupi; chodzi o to, że ludzie są bardzo zróżnicowani pod względem języka, kultury i doświadczenia. Gdy pozbędziesz się wszystkich tych rzeczy, aby wykonać test, który każdy człowiek może przejść, bez wcześniejszego szkolenia lub zbytniego myślenia, zostaniesz z brutalnymi zadaniami, takimi jak przetwarzanie obrazu, dokładnie w tym, w czym sztuczna inteligencja na miarę będzie dobra. .
„Testy są ograniczone ludzkimi możliwościami” – mówi Polakis – „Nie chodzi tylko o nasze możliwości fizyczne, potrzebujesz czegoś, co jest międzykulturowe i językowe. Potrzebujesz jakiegoś wyzwania, które zadziała z kimś z Grecji, kimś z Chicago, kimś z RPA, Iranu i Australii w tym samym czasie. Musi być niezależny od zawiłości i różnic kulturowych. Potrzebujesz czegoś, co jest łatwe dla przeciętnego człowieka, nie powinno być związane z określoną podgrupą ludzi, a jednocześnie powinno być trudne dla komputerów. To bardzo ogranicza to, co faktycznie możesz zrobić. I musi to być coś, co człowiek może zrobić szybko i nie jest zbyt denerwujące. ”
Zastanawianie się, jak naprawić te rozmyte obrazki, szybko przenosi Cię na terytorium filozoficzne : jaka jest uniwersalna ludzka cecha, którą można zademonstrować maszynie, ale której żadna maszyna nie może naśladować? Co to znaczy być człowiekiem?
Ale może naszego człowieczeństwa nie mierzy się tym, jak wykonujemy zadanie, ale tym, jak poruszamy się po świecie – lub w tym przypadku przez Internet. Gry, filmy, jakikolwiek test, który opracujesz, w końcu się zepsują, mówi Shuman Ghosemajumder, który wcześniej pracował w Google w zwalczaniu oszustw związanych z kliknięciami, zanim został dyrektorem ds. Technologii w firmie Shape Security zajmującej się wykrywaniem botów. Zamiast testów woli coś, co nazywa się „ciągłym uwierzytelnianiem”, zasadniczo obserwując zachowanie użytkownika i szukając oznak automatyzacji. „Prawdziwy człowiek nie ma zbyt dobrej kontroli nad własnymi funkcjami motorycznymi, więc mogą” t poruszaj myszą w ten sam sposób więcej niż raz podczas wielu interakcji, nawet jeśli bardzo się starają ”- mówi Ghosemajumder. Podczas gdy bot wchodzi w interakcję ze stroną bez poruszania myszą lub bardzo precyzyjnie poruszając myszą, ludzkie działania mają „entropię”, którą trudno sfałszować, mówi Ghosemajumder.
Zespół Google myśli podobnie Najnowsza wersja, re v3, ogłoszona pod koniec zeszłego roku, wykorzystuje „adaptacyjną analizę ryzyka”, aby oceniać ruch na podstawie tego, jak podejrzany wydaje się; właściciele witryn mogą następnie zdecydować o przedstawieniu szkicowym użytkownikom wyzwania, takiego jak żądanie hasła lub uwierzytelnianie dwuskładnikowe. Google nie powiedziałby, jakie czynniki wpływają na ten wynik, poza tym, że Google obserwuje, jak wygląda grupa „dobrego ruchu” w witrynie, według Cy Khormaee, menedżera produktu w zespole, i wykorzystuje to do wykrywania „złych” ruch drogowy.” Badacze bezpieczeństwa twierdzą, że jest to prawdopodobnie połączenie plików cookie, atrybutów przeglądarki, wzorców ruchu i innych czynników. Jedną z wad nowego modelu wykrywania botów jest to, że może on sprawić, że nawigacja w sieci przy jednoczesnym zminimalizowaniu inwigilacji będzie irytującym doświadczeniem, ponieważ takie rzeczy jak VPN i rozszerzenia zapobiegające śledzeniu mogą sprawić, że zostaniesz oznaczony jako podejrzany i stanowiący wyzwanie. / div>
Aaron Malenfant, główny inżynier w zespole Google, twierdzi, że odejście od testów Turinga ma na celu ominięcie konkurencji, którą ludzie wciąż przegrywają. „W miarę jak ludzie inwestują coraz więcej w uczenie maszynowe, tego rodzaju wyzwania będą musiały stawać się coraz trudniejsze dla ludzi i właśnie dlatego uruchomiliśmy V3, aby wyprzedzić tę krzywą”. Malenfant twierdzi, że za pięć do dziesięciu lat wyzwania prawdopodobnie nie będą w ogóle wykonalne. Zamiast tego większość sieci będzie miała w tle ciągły, tajny test Turinga.
W swojej książce The Brian Christian, najbardziej ludzki człowiek, bierze udział w konkursie Turinga jako ludzka folia i odkrywa, że naprawdę trudno jest udowodnić swoje człowieczeństwo w rozmowie. Z drugiej strony twórcom botów łatwo było zdać, nie będąc najbardziej elokwentnym lub inteligentny rozmówca, ale unikając pytań żartami non sequitur, popełniając literówki lub w przypadku bota, który wygrał konkurs Turinga w 2014 roku, podając się za 13-letniego ukraińskiego chłopca ze słabą znajomością angielskiego. W końcu , błądzenie jest ludzkie. Możliwe, że czeka nas podobna przyszłość, najpowszechniej stosowany test Turinga na świecie – nowy wyścig zbrojeń, który nie polega na tworzeniu botów, które przewyższają ludzi pod względem etykietowania obrazów i analizowania tekstu, ale takich, które popełniają błędy, przegapić przyciski, rozproszyć się i zmienić zakładki nk ludzie zdają sobie sprawę, że istnieje aplikacja do symulacji przeciętnego użytkownika … lub głupich ludzi ”- mówi Ghosemajumder.
Testy mogą również przetrwać na tym świecie. Amazon otrzymał patent w 2017 roku na schemat obejmujący złudzenia optyczne i łamigłówki logiczne, które ludzie mają duże trudności z rozszyfrowaniem. Nazywany testem Turinga przez awarię, jedynym sposobem na zaliczenie jest uzyskanie błędnej odpowiedzi.
PSA: Nie publikuj swojego koronawirusa selfie ze szczepień w mediach społecznościowych
Agencja ochrony konsumentów badająca praktyki zbierania danych przez Venmo
Myanmar nakazuje dostawcom internetu zablokowanie Twittera i Instagram w kraju
Wyświetl wszystkie historie w kategorii Tech