Waarom CAPTCHA’s zo moeilijk zijn geworden

Onderdeel van

Op een gegeven moment vorig jaar begonnen de constante verzoeken van Google om te bewijzen dat ik een mens ben, steeds agressiever. De simpele, iets te schattige knop met de tekst ‘Ik ben geen robot’ werd steeds vaker gevolgd door eisen om het te bewijzen – door alle verkeerslichten, zebrapaden en winkelpuien in een afbeeldingsraster te selecteren. Al snel waren de verkeerslichten begraven in ver gebladerte, de oversteekplaatsen kromgetrokken en half om een hoek, de bewegwijzering op de winkelpui wazig en in het Koreaans. Er is iets uniek ontmoedigend aan te worden gevraagd om een brandkraan te identificeren en ermee te worstelen.

Deze tests worden genoemd, een afkorting voor Completely Automated Public Turing-test om Computers and Humans Apart te vertellen, en ze hebben eerder dit soort ondoorgrondelijk plateau bereikt. In de vroege jaren 2000 waren eenvoudige afbeeldingen van tekst voldoende om de meeste spambots te verduisteren Maar een decennium later, nadat Google het programma van Carnegie Mellon-onderzoekers had gekocht en het gebruikte om Google Books te digitaliseren, moesten teksten steeds meer worden vervormd en verduisterd om de verbetering van optische tekenherkenningsprogramma’s voor te blijven – programma’s die in een Omgekeerd hielpen al die mensen die problemen oplosten te verbeteren.

Omdat het zo’n elegant hulpmiddel is voor het trainen van AI, kan elke test alleen maar tijdelijk zijn, iets wat de uitvinders van meet af aan erkenden. Met al die onderzoekers, oplichters en gewone mensen die miljarden puzzels oplosten net op de drempel van wat AI kan doen, zouden de machines ons op een gegeven moment voorbijgaan. In 2014 zette Google een van zijn algoritmen voor machine learning tegen mensen op bij het oplossen van de meest vervormde teksten: de computer deed de test 99,8 procent van de tijd goed, terwijl de mensen slechts 33 procent haalden.

Google verhuisde vervolgens naar No Re, dat gebruikersgegevens en -gedrag observeert om sommige mensen door te laten met een klik op de knop ‘Ik ben geen robot’, en anderen de afbeeldingslabels presenteert die we vandaag zien. Maar de machines zijn opnieuw al die luifels die al dan niet etalages zijn? Ze zijn het eindspel in de wapenwedloop van de mensheid met de machines.

Jason Polakis, een professor in computerwetenschappen aan de University of Illinois in Chicago, neemt persoonlijk de eer voor de recente toename in moeilijkheidsgraad. In 2016 publiceerde hij een paper waarin hij standaard beeldherkenningstools gebruikte, waaronder Google’s eigen reverse image search, om Google-afbeeldingen op te lossen met 70 procent nauwkeurigheid. Andere onderzoekers hebben de audio-uitdagingen van Google doorbroken met Goog zijn eigen audioherkenningsprogramma’s.

Machine learning is nu ongeveer net zo goed als mensen bij basistaken voor tekst-, beeld- en spraakherkenning, zegt Polakis. Algoritmen zijn er waarschijnlijk zelfs beter in: “We hebben een punt bereikt waarop het moeilijker maken van software het voor veel mensen te moeilijk maakt. We hebben een alternatief nodig, maar er is nog geen concreet plan.”

De literatuur over is bezaaid met valse starts en vreemde pogingen om iets anders te vinden dan tekst- of beeldherkenning waar mensen universeel goed in zijn en waar machines mee worstelen. Onderzoekers hebben geprobeerd gebruikers te vragen afbeeldingen van mensen te classificeren op basis van gezichtsuitdrukking, geslacht en etniciteit. (Je kunt je voorstellen hoe goed dat ging.) Er zijn voorstellen gedaan voor trivia’s en s op basis van kinderrijmpjes die veel voorkomen in het gebied waar een gebruiker naar verluidt is opgegroeid. Dergelijke culturele programma’s zijn niet alleen gericht op bots, maar mensen die in overzeese boerderijen werken en puzzels oplossen voor een fractie van een cent. Mensen hebben geprobeerd beeldherkenning te belemmeren door gebruikers te vragen om bijvoorbeeld varkens te identificeren, maar de varkens tekenfilms te maken en ze een zonnebril te geven. Onderzoekers hebben gekeken om gebruikers te vragen Fy objecten in Magic Eye-achtige vlekken. In een intrigerende variant stelden onderzoekers in 2010 voor om s te gebruiken om oude rotstekeningen te indexeren, computers die niet erg goed zijn in het ontcijferen van gebarenschetsen van rendieren die op grotwanden zijn gekrabbeld.

Sinds kort zijn er die pogingen om game-achtige programma’s te ontwikkelen, tests waarbij gebruikers objecten in bepaalde hoeken moeten draaien of puzzelstukjes in positie moeten brengen, waarbij instructies niet in tekst maar in symbolen worden gegeven of geïmpliceerd door de context van het spelbord. De hoop is dat mensen de logica van de puzzel zouden begrijpen, maar computers, zonder duidelijke instructies, zouden stomverbaasd zijn. Andere onderzoekers hebben geprobeerd misbruik te maken van het feit dat mensen lichamen hebben, door apparaatcamera’s of augmented reality te gebruiken als interactief bewijs van de mensheid.

Het probleem met veel van deze tests is niet noodzakelijk dat bots te slim zijn – het is dat mensen eraan zuigen. En het is niet dat mensen dom zijn; het is dat mensen enorm divers zijn in taal, cultuur en ervaring. Als je eenmaal al dat spul kwijt bent om een test te maken die elk mens kan halen, zonder voorafgaande training of veel nadenken, blijf je achter met brute taken zoals beeldverwerking, precies datgene waar een op maat gemaakte AI goed in zal zijn .

“De tests worden beperkt door menselijke capaciteiten”, zegt Polakis. “Het zijn niet alleen onze fysieke capaciteiten, je hebt iets nodig dat cultureel en taaloverschrijdend is. Je hebt een soort uitdaging nodig die tegelijkertijd werkt met iemand uit Griekenland, iemand uit Chicago, iemand uit Zuid-Afrika, Iran en Australië. En het moet onafhankelijk zijn van culturele fijne kneepjes en verschillen. Je hebt iets nodig dat gemakkelijk is voor een gemiddeld mens, het zou niet gebonden moeten zijn aan een specifieke subgroep van mensen, en het zou tegelijkertijd moeilijk moeten zijn voor computers. Dat is erg beperkend in wat u daadwerkelijk kunt doen. En het moet iets zijn dat een mens snel kan doen, en het is niet te irritant. ”

Als je uitzoekt hoe je die wazige beeldquizzen kunt oplossen, kom je snel op filosofisch terrein : wat is de universele menselijke kwaliteit die aan een machine kan worden aangetoond, maar die geen enkele machine kan nabootsen? Wat is het om mens te zijn?

Maar misschien wordt onze menselijkheid niet afgemeten aan hoe we presteren met een taak, maar aan hoe we ons door de wereld bewegen – of in dit geval via internet. Games, video’s, wat voor soort test je ook bedenkt, zal uiteindelijk worden verbroken, zegt Shuman Ghosemajumder, die eerder bij Google werkte om klikfraude te bestrijden voordat hij de chief technology officer werd van het botdetectiebedrijf Shape Security. In plaats van testen is hij voorstander van iets dat ‘continue authenticatie’ wordt genoemd, waarbij hij in wezen het gedrag van een gebruiker observeert en zoekt naar tekenen van automatisering. ‘Een echt mens heeft niet erg goede controle over zijn eigen motorische functies, en dat kunnen ze’ ‘Beweeg de muis niet meer dan eens op dezelfde manier over meerdere interacties, zelfs als ze heel hard hun best doen’, zegt Ghosemajumder. Hoewel een bot interactie heeft met een pagina zonder een muis te bewegen, of door een muis heel precies te bewegen, hebben menselijke acties “entropie” die moeilijk te vervalsen is, zegt Ghosemajumder.

Google’s eigen team denkt op dezelfde manier mee. De laatste versie, re v3, die eind vorig jaar werd aangekondigd, gebruikt “adaptieve risicoanalyse” om het verkeer te beoordelen op basis van hoe verdacht het lijkt; website-eigenaren kunnen er vervolgens voor kiezen om schetsmatige gebruikers een uitdaging voor te leggen, zoals een wachtwoordverzoek of tweefactorauthenticatie. Google zou niet zeggen welke factoren bij die score horen, behalve dat Google observeert hoe een hoop ‘goed verkeer’ op een site eruitziet, volgens Cy Khormaee, een productmanager in het team, en dat gebruikt om ‘slechte verkeer.” Beveiligingsonderzoekers zeggen dat het waarschijnlijk een combinatie is van cookies, browsereigenschappen, verkeerspatronen en andere factoren. Een nadeel van het nieuwe model van botdetectie is dat het navigeren op het web met minimale bewaking een vervelende ervaring kan maken, omdat zaken als VPN’s en anti-tracking-extensies ervoor kunnen zorgen dat je als verdacht wordt gemarkeerd en uitgedaagd.

Aaron Malenfant, de technische leider van het Google-team, zegt dat de overstap van Turing-tests bedoeld is om de concurrentie te omzeilen die mensen steeds weer verliezen. “Naarmate mensen steeds meer investeren in machine learning, zullen dat soort uitdagingen steeds moeilijker worden voor mensen, en dat is met name de reden waarom we V3 hebben gelanceerd om die curve voor te blijven.” Malenfant zegt dat uitdagingen over vijf tot tien jaar waarschijnlijk helemaal niet levensvatbaar zullen zijn. In plaats daarvan zal een groot deel van het internet een constante, geheime Turing-test op de achtergrond hebben.

In zijn boek The Brian Christian, de meest menselijke mens, doet mee aan een Turing Test-wedstrijd als de menselijke folie en vindt dat het eigenlijk best moeilijk is om je menselijkheid in een gesprek te bewijzen. Aan de andere kant hebben botmakers het gemakkelijk gevonden om te slagen, niet door de meest welsprekende of intelligente gesprekspartner, maar door vragen te ontwijken met non-sequitur-grappen, typefouten te maken, of in het geval van de bot die in 2014 een Turing-wedstrijd won, die beweert een 13-jarige Oekraïense jongen te zijn die het Engels slecht beheerst. , vergissen is menselijk. Het is mogelijk dat er een vergelijkbare toekomst in het verschiet ligt, de meest gebruikte Turing-test ter wereld: een nieuwe wapenwedloop om geen bots te maken die mensen overtreffen bij het labelen van afbeeldingen en het ontleden van tekst, maar die fouten maken, knoppen missen, afgeleid worden en van tab wisselen. ‘Ik thi nk mensen realiseren zich dat er een applicatie is voor het simuleren van de gemiddelde menselijke gebruiker … of domme mensen, ”zegt Ghosemajumder.

tests kunnen ook in deze wereld blijven bestaan. Amazon ontving in 2017 een patent voor een schema met optische illusies en logische puzzels die mensen grote moeite hebben met ontcijferen. Turing Test genoemd via mislukking, de enige manier om te slagen, is door het antwoord verkeerd te krijgen.

Beleid

PSA: post uw coronavirus niet vaccinatiekaart selfie op sociale media

Beleid

Consumentenbeschermingsinstantie onderzoekt Venmo’s inzamelingspraktijken

Tech

Myanmar beveelt internetproviders om Twitter te blokkeren en Instagram in het land

Bekijk alle verhalen in Tech

Leave a Reply

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *