Perché i CAPTCHA sono diventati così difficili

Parte di

Ad un certo punto dell’anno scorso, le continue richieste di Google di dimostrare che sono umano hanno cominciato a sentire sempre più aggressivo. Sempre di più, il pulsante semplice e un po ‘troppo carino che diceva “Non sono un robot” è stato seguito da richieste di dimostrarlo, selezionando tutti i semafori, le strisce pedonali e le vetrine in una griglia di immagini. Presto i semafori erano sepolto nel fogliame lontano, le strisce pedonali deformate e mezzo dietro l’angolo, l’insegna del negozio sfocata e in coreano. C’è qualcosa di straordinariamente scoraggiante nell’essere chiesto di identificare un idrante e lottare contro di esso.

Questi test sono chiamati, un acronimo per test di Turing pubblico completamente automatizzato per distinguere i computer e gli esseri umani, e hanno già raggiunto questo tipo di imperscrutabilità. All’inizio degli anni 2000, semplici immagini di testo erano sufficienti per bloccare la maggior parte degli spambot Ma un decennio dopo, dopo che Google aveva acquistato il programma dai ricercatori della Carnegie Mellon e lo stava usando per digitalizzare Google Libri, i testi dovevano essere sempre più distorti e oscurati per stare al passo con il miglioramento dei programmi di riconoscimento ottico dei caratteri – programmi che, in un In ogni caso, tutti quegli umani che risolvevano i problemi stavano aiutando a migliorare.

Poiché è uno strumento così elegante per addestrare l’IA, ogni dato test potrebbe essere solo temporaneo, qualcosa che i suoi inventori hanno riconosciuto all’inizio. Con tutti quei ricercatori, truffatori e normali esseri umani che risolvono miliardi di enigmi proprio alla soglia di ciò che può fare l’IA, a un certo punto le macchine ci sarebbero passate accanto. Nel 2014, Google ha messo uno dei suoi algoritmi di apprendimento automatico contro gli esseri umani per risolvere i testi più distorti: il computer ha eseguito correttamente il test il 99,8% delle volte, mentre gli umani hanno ottenuto solo il 33%.

Google poi è passato a No Re, che osserva i dati e il comportamento degli utenti per far passare alcuni umani con un clic del pulsante “Non sono un robot” e presenta ad altri l’etichettatura dell’immagine che vediamo oggi. Ma le macchine lo sono ancora una volta recuperando terreno. Tutte quelle tende da sole che possono o non possono essere vetrine? Sono la fine della corsa agli armamenti dell’umanità con le macchine.

Jason Polakis, professore di informatica presso il L’Università dell’Illinois a Chicago si prende il merito personale del recente aumento della difficoltà. Nel 2016, ha pubblicato un documento in cui utilizzava strumenti di riconoscimento delle immagini standard, inclusa la ricerca inversa di immagini di Google, per risolvere le immagini di Google con 70 percentuale di precisione. Altri ricercatori hanno superato le sfide audio di Google utilizzando Goog i propri programmi di riconoscimento audio.

L’apprendimento automatico ora è buono quanto gli esseri umani nelle attività di riconoscimento di testo, immagini e voce di base, afferma Polakis. In effetti, gli algoritmi sono probabilmente migliori in questo: “Siamo a un punto in cui rendere più difficile il software finisce per renderlo troppo difficile per molte persone. Abbiamo bisogno di un’alternativa, ma non c’è ancora un piano concreto”.

La letteratura su è disseminata di false partenze e strani tentativi di trovare qualcosa di diverso dal riconoscimento di testo o immagini in cui gli esseri umani sono universalmente bravi e con cui le macchine lottano. I ricercatori hanno provato a chiedere agli utenti di classificare le immagini delle persone in base all’espressione facciale, al sesso , e l’etnia. (Potete immaginare quanto sia andato bene.) Sono state proposte curiosità es basate su filastrocche comuni nell’area in cui si presume sia cresciuto un utente. Tali messaggi culturali non sono rivolti solo ai bot, ma agli esseri umani che lavorano nelle fattorie all’estero risolvendo enigmi per frazioni di centesimo. Le persone hanno tentato di ostacolare il riconoscimento delle immagini chiedendo agli utenti di identificare, ad esempio, i maiali, ma realizzando i cartoni animati dei maiali e dando loro occhiali da sole. I ricercatori hanno cercato di chiedere agli utenti di identificarsi fy oggetti con macchie simili a Magic Eye. In una variazione interessante, i ricercatori nel 2010 hanno proposto di utilizzare s per indicizzare antichi petroglifi, i computer non erano molto bravi a decifrare schizzi gestuali di renne scarabocchiate sulle pareti delle caverne.

Recentemente ci sono stati sforzi per sviluppare giochi simili a test che richiedono agli utenti di ruotare gli oggetti di determinati angoli o spostare i pezzi del puzzle in posizione, con istruzioni fornite non nel testo ma nei simboli o implicite nel contesto del tabellone di gioco. La speranza è che gli umani capiscano la logica del puzzle, ma i computer, privi di istruzioni chiare, sarebbero perplessi. Altri ricercatori hanno cercato di sfruttare il fatto che gli esseri umani hanno corpi, utilizzano fotocamere dei dispositivi o realtà aumentata per la prova interattiva dell’umanità.

Il problema con molti di questi test non è necessariamente che i robot siano troppo intelligenti: è che gli umani li succhiano. E non è che gli umani siano stupidi; è che gli esseri umani sono estremamente diversi in termini di lingua, cultura ed esperienza. Una volta che ti sei sbarazzato di tutte quelle cose per fare un test che qualsiasi essere umano può superare, senza un addestramento preliminare o una riflessione, ti rimangono compiti bruti come l’elaborazione delle immagini, esattamente la cosa in cui un’IA su misura sarà brava .

“I test sono limitati dalle capacità umane”, dice Polakis. “Non sono solo le nostre capacità fisiche, hai bisogno di qualcosa che sia interculturale e linguistico. Hai bisogno di un tipo di sfida che funzioni con qualcuno dalla Grecia, qualcuno da Chicago, qualcuno dal Sud Africa, Iran e Australia allo stesso tempo. E deve essere indipendente dalle complessità e dalle differenze culturali. Hai bisogno di qualcosa che sia facile per un essere umano medio, non dovrebbe essere legato a uno specifico sottogruppo di persone e allo stesso tempo dovrebbe essere difficile per i computer. Questo è molto limitante in ciò che puoi effettivamente fare. E deve essere qualcosa che un essere umano può fare velocemente e non è troppo fastidioso. “

Capire come risolvere quei quiz con immagini sfocate ti porta rapidamente in un territorio filosofico : qual è la qualità umana universale che può essere dimostrata a una macchina, ma che nessuna macchina può imitare? Che cos’è essere umani?

Ma forse la nostra umanità non si misura in base a come ci comportiamo in un compito, ma in come ci muoviamo nel mondo o, in questo caso, attraverso Internet. Giochi, video e qualsiasi tipo di test escogitato finirà per non essere superato, afferma Shuman Ghosemajumder, che in precedenza ha lavorato per Google nella lotta alla frode dei clic prima di diventare Chief Technology Officer della società di rilevamento dei bot Shape Security. Piuttosto che i test, preferisce qualcosa chiamato “autenticazione continua”, essenzialmente osservando il comportamento di un utente e cercando segni di automazione. “Un vero essere umano non ha un controllo molto buono sulle proprie funzioni motorie, e quindi può” t spostare il mouse nello stesso modo più di una volta su più interazioni, anche se si sforzano molto “, afferma Ghosemajumder. Mentre un bot interagisce con una pagina senza muovere il mouse o muovendo un mouse in modo molto preciso, le azioni umane hanno “entropia” difficile da falsificare, afferma Ghosemajumder.

Il team di Google sta pensando in modo simile L’ultima versione, re v3, annunciata alla fine dell’anno scorso, utilizza l ‘”analisi adattiva dei rischi” per valutare il traffico in base a quanto sospetto sembra; I proprietari di siti Web possono quindi scegliere di presentare agli utenti imprecisi una sfida, come una richiesta di password o un’autenticazione a due fattori. Secondo Cy Khormaee, un product manager del team, Google non direbbe quali fattori entrano in quel punteggio, a parte il fatto che Google osserva che aspetto ha un mucchio di “traffico buono” su un sito, secondo Cy Khormaee, un product manager del team, e lo utilizza per rilevare “cattivi traffico.” I ricercatori sulla sicurezza affermano che è probabile che sia un mix di cookie, attributi del browser, modelli di traffico e altri fattori. Uno svantaggio del nuovo modello di rilevamento dei bot è che può rendere la navigazione sul Web riducendo al minimo la sorveglianza un’esperienza fastidiosa, poiché cose come VPN ed estensioni anti-tracciamento possono farti contrassegnare come sospetto e sfidato.

Aaron Malenfant, responsabile tecnico del team di Google, afferma che l’allontanamento dai test di Turing ha lo scopo di eludere la concorrenza che gli umani continuano a perdere. “Poiché le persone investono sempre di più nell’apprendimento automatico, questo tipo di sfide dovrà diventare sempre più difficile per gli esseri umani, ed è questo in particolare il motivo per cui abbiamo lanciato la V3, per anticipare quella curva”. Malenfant afferma che tra cinque o dieci anni le sfide probabilmente non saranno affatto praticabili. Invece, gran parte del Web avrà un test di Turing costante e segreto in esecuzione in background.

Nel suo libro The La maggior parte degli umani umani, Brian Christian partecipa a una competizione per il test di Turing come il foglio umano e scopre che in realtà è piuttosto difficile dimostrare la tua umanità nella conversazione. D’altra parte, i creatori di bot hanno trovato facile passare, non essendo i più eloquenti o conversatore intelligente, ma schivando le domande con battute non sequitur, facendo errori di battitura o, nel caso del bot che ha vinto un concorso di Turing nel 2014, affermando di essere un ragazzo ucraino di 13 anni con una scarsa conoscenza dell’inglese. Dopo tutto , errare è umano. È possibile che un futuro simile sia in serbo per il test di Turing più utilizzato al mondo: una nuova corsa agli armamenti per non creare bot che superino gli umani nell’etichettare immagini e analizzare il testo, ma quelli che commettono errori, perdere i pulsanti, distrarsi e cambiare scheda. “Io thi La gente di nk si sta rendendo conto che esiste un’applicazione per simulare l’utente umano medio … o gli umani stupidi “, dice Ghosemajumder.

i test possono persistere anche in questo mondo. Amazon ha ricevuto un brevetto nel 2017 per uno schema che coinvolge illusioni ottiche e puzzle logici che gli umani hanno grandi difficoltà a decifrare. Chiamato test di Turing per fallimento, l’unico modo per passare è sbagliare la risposta.

Policy

PSA: non pubblicare il tuo coronavirus carta di vaccinazione selfie sui social media

Politica

Agenzia per la protezione dei consumatori che indaga sulle pratiche di raccolta di Venmo

Tech

Il Myanmar ordina ai provider di Internet di bloccare Twitter e Instagram nel paese

Visualizza tutte le storie in Tech

Leave a Reply

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *