Hvorfor CAPTCHA har blitt så vanskelig

En del av

På et eller annet tidspunkt i fjor begynte Googles konstante forespørsler om å bevise at jeg var menneske stadig mer aggressiv. Mer og mer ble den enkle, litt for søte knappen som sa «Jeg er ikke en robot» etterfulgt av krav om å bevise det – ved å velge alle trafikklys, overganger og butikkfronter i et bildegitter. Snart ble trafikklysene gravlagt i fjernt løvverk, kryssgangene krøllet og halvt rundt et hjørne, skiltet på butikkfronten er uklart og på koreansk. Det er noe som er unyttig ved å bli bedt om å identifisere en brannhydrant og slite med den.

Disse testene kalles, et akronym for Completely Automated Public Turing-test for å fortelle datamaskiner og mennesker fra hverandre, og de har nådd denne typen usynlige platå tidligere. På begynnelsen av 2000-tallet var enkle bilder av tekst nok til å stumpe de fleste spambots Men etter et tiår senere, etter at Google hadde kjøpt programmet fra forskere fra Carnegie Mellon og brukt det til å digitalisere Google Books, måtte tekster bli mer og mer skjevt og tilslørt for å være i forkant av forbedring av programmer for optisk karaktergjenkjenning – programmer som i en I rundkjøringen hjalp alle de menneskene som løste s med å forbedre seg.

Fordi det er et så elegant verktøy for å trene AI, kan enhver gitt test bare være midlertidig, noe oppfinnerne erkjente i begynnelsen. Med alle disse forskerne, svindlerne og vanlige menneskene som løser milliarder av gåter like ved terskelen til hva AI kan gjøre, kom maskinene på et eller annet tidspunkt forbi oss. I 2014 satte Google en av maskinlæringsalgoritmene mot mennesker i å løse de mest forvrengte tekstene: datamaskinen fikk testen riktig 99,8 prosent av tiden, mens menneskene fikk bare 33 prosent.

Google deretter flyttet til No Re, som observerer brukerdata og oppførsel for å la noen mennesker passere gjennom med et klikk på «Jeg er ikke en robot» -knappen, og presenterer andre med bildemerkingen vi ser i dag. Men maskinene er igjen fange opp. Alle de forteltene som kanskje ikke er butikkfronter? De er sluttspillet i menneskehetens våpenkappløp med maskinene.

Jason Polakis, informatikkprofessor ved University of Illinois i Chicago, tar personlig ære for den nylige økningen i vanskeligheter. I 2016 publiserte han et papir der han brukte hylleverktøy for bildegjenkjenning, inkludert Googles eget omvendte bildesøk, for å løse Googles bilder med 70 prosent nøyaktighet. Andre forskere har brutt Googles lydutfordringer ved å bruke Goog le sine egne lydgjenkjenningsprogrammer.

Maskinlæring er nå omtrent like god som mennesker på grunnleggende tekst-, bilde- og stemmegjenkjenningsoppgaver, sier Polakis. Faktisk er algoritmer sannsynligvis bedre på det: «Vi er på et punkt der det blir vanskeligere for programvare, og det blir for vanskelig for mange mennesker. Vi trenger noe alternativ, men det er ikke en konkret plan ennå.»

Litteraturen på er full av falske starter og rare forsøk på å finne noe annet enn tekst- eller bildegjenkjenning som mennesker er universelt flinke til og maskiner sliter med. Forskere har prøvd å be brukerne om å klassifisere bilder av mennesker etter ansiktsuttrykk, kjønn , og etnisitet. (Du kan forestille deg hvor bra det gikk.) Det har vært forslag til triviaer og s basert på barnerim som er vanlige i området der en bruker angivelig vokste opp. Slike kulturelle retter er ikke bare rettet mot bots, men på mennesker som arbeider på utenlandske gårder og løser gåter for brøkdeler av en cent. Folk har prøvd å hindre bildegjenkjenning ved å be brukerne om å identifisere, si, griser, men lage grisene tegneserier og gi dem solbriller. Forskere har sett på å be brukerne identifisere objekter i Magic Eye-lignende flekker. I en spennende variasjon foreslo forskere i 2010 å bruke s til å indeksere eldgamle helleristninger, datamaskiner som ikke var veldig flinke til å tyde gestusskisser av reinsdyr skrapet på hulevegger.

Nylig har det vært forsøk på å utvikle spilllignende s, tester som krever at brukerne roterer objekter til bestemte vinkler eller flytter puslespillbitene på plass, med instruksjoner ikke gitt i tekst, men i symboler eller underforstått av sammenheng med spillbrettet. Håpet er at mennesker vil forstå puslespillets logikk, men datamaskiner som mangler klare instruksjoner, vil bli stubbet. Andre forskere har prøvd å utnytte det faktum at mennesker har kropper, ved hjelp av enhetskameraer eller utvidet virkelighet for interaktivt bevis på menneskeheten.

Problemet med mange av disse testene er ikke nødvendigvis at roboter er for smarte – det er at mennesker suger på dem. Og det er ikke det at mennesker er dumme; det er at mennesker er veldig forskjellige i språk, kultur og erfaring. Når du blir kvitt alle de tingene for å lage en test som ethvert menneske kan bestå, uten forutgående trening eller mye tanke, sitter du igjen med brutale oppgaver som bildebehandling, akkurat det en skreddersydd AI kommer til å være god på .

«Testene er begrenset av menneskelige evner,» sier Polakis. «Det er ikke bare våre fysiske evner, du trenger noe som krysser kulturelt, kryssspråk. Du trenger en slags utfordring som fungerer med noen fra Hellas, noen fra Chicago, noen fra Sør-Afrika, Iran og Australia samtidig. Og det må være uavhengig av kulturelle forviklinger og forskjeller. Du trenger noe som er enkelt for et gjennomsnittlig menneske, det skal ikke være bundet til en bestemt undergruppe av mennesker, og det skal være vanskelig for datamaskiner samtidig. Det er veldig begrensende i hva du faktisk kan gjøre. Og det må være noe et menneske kan gjøre raskt, og som ikke er for irriterende. ”

Å finne ut hvordan du kan fikse de uskarpe bildespørsmålene tar deg raskt inn i et filosofisk territorium : hva er den universelle menneskelige kvaliteten som kan demonstreres for en maskin, men som ingen maskin kan etterligne? Hva er det å være menneske?

Men kanskje måles ikke vår menneskelighet av hvordan vi utfører med en oppgave, men av hvordan vi beveger oss gjennom verden – eller i dette tilfellet gjennom internett. Spill, videoer, hva slags test du utarbeider, vil til slutt bli ødelagt, sier Shuman Ghosemajumder, som tidligere jobbet hos Google for å bekjempe klikksvindel før han ble teknologichef for botdeteksjonsfirmaet Shape Security. I stedet for tester favoriserer han noe som kalles «kontinuerlig autentisering», i hovedsak å observere brukerens oppførsel og lete etter tegn på automatisering. «Et ekte menneske har ikke veldig god kontroll over sine egne motoriske funksjoner, og slik at de kan ‘ ikke bevege musen på samme måte mer enn en gang over flere interaksjoner, selv om de prøver veldig hardt, sier Ghosemajumder. Mens en bot vil samhandle med en side uten å bevege en mus, eller ved å bevege en mus veldig nøyaktig, har menneskelige handlinger «entropi» som er vanskelig å forfalske, sier Ghosemajumder.

Googles eget team tenker på lignende Den siste versjonen, re v3, kunngjort sent i fjor, bruker «adaptiv risikoanalyse» for å score trafikk etter hvor mistenkelig den virker; nettstedeiere kan deretter velge å presentere sketchy brukere med en utfordring, som passordforespørsel eller tofaktorautentisering. Google vil ikke si hvilke faktorer som går inn i den poengsummen, bortsett fra at Google observerer hvordan en haug med «god trafikk» på et nettsted ser ut, ifølge Cy Khormaee, produktsjef i teamet, og bruker det for å oppdage «dårlig» trafikk.» Sikkerhetsforskere sier at det sannsynligvis er en blanding av informasjonskapsler, nettleserattributter, trafikkmønstre og andre faktorer. En ulempe med den nye modellen for oppdagelse av bot er at den kan gjøre det å navigere på nettet mens du minimerer overvåking til en irriterende opplevelse, da ting som VPN og anti-tracking-utvidelser kan få deg til å bli flagget som mistenkelig og utfordret.

Aaron Malenfant, ingeniørledelsen på Googles team, sier at flyttingen fra Turing-tester er ment å omgå konkurransen mennesker fortsetter å tape. «Når folk satser mer og mer på maskinlæring, må slike utfordringer bli vanskeligere og vanskeligere for mennesker, og det er spesielt derfor vi lanserte V3 for å komme foran den kurven.» Malenfant sier at utfordringene sannsynligvis ikke vil være levedyktige i løpet av fem til ti år fra i stedet. Mye av nettet vil i stedet ha en konstant, hemmelig Turing-test som kjører i bakgrunnen.

I sin bok The Most Human Human, Brian Christian deltar i en Turing Test-konkurranse som den menneskelige folien og finner at det faktisk er ganske vanskelig å bevise menneskeheten din i samtale. På den annen side har botprodusenter funnet det lett å passere, ikke ved å være den mest veltalende eller intelligent samtalepartner, men ved å unnvike spørsmål med ikke-sequitur-vitser, skrivefeil, eller i tilfelle av boten som vant en Turing-konkurranse i 2014, og hevdet å være en 13 år gammel ukrainsk gutt med dårlig forståelse av engelsk. , å feile er menneskelig. Det er mulig en lignende fremtid er i vente for, den mest brukte Turing-testen i verden – et nytt våpenkappløp om ikke å lage roboter som overgår mennesker ved å merke bilder og analysere tekst, men de som gjør feil, savner knapper, blir distrahert og bytter fane. «Jeg thi nk folk innser at det finnes en applikasjon for å simulere den gjennomsnittlige menneskelige brukeren … eller stumme mennesker, ”sier Ghosemajumder.

tester kan også vedvare i denne verdenen. Amazon mottok et patent i 2017 for en ordning som involverer optiske illusjoner og logikkoppgaver mennesker har store problemer med å tyde. Kalt Turing Test via feil, den eneste måten å bestå er å få svaret feil.

Policy

PSA: Ikke legg ut coronavirus vaksinasjonskort-selfie på sosiale medier

Policy

Forbrukervernbyrå som undersøker Venmos innsamlingspraksis

Tech

Myanmar beordrer internettleverandører å blokkere Twitter og Instagram i landet

Se alle historiene i Tech

Leave a Reply

Legg igjen en kommentar

Din e-postadresse vil ikke bli publisert. Obligatoriske felt er merket med *