V určitém bodě loňského roku se neustále začaly cítit neustálé požadavky společnosti Google na prokázání, že jsem člověk stále agresivnější. Po jednoduchém, trochu příliš roztomilém tlačítku s nápisem „Nejsem robot“ stále více a více následovaly požadavky, které to dokazují – výběrem všech semaforů, přechodů pro chodce a výloh v mřížce obrázků. pohřben ve vzdálených listovích, přechod pro chodce pokřivený a napůl za rohem, nápisy v obchodě rozmazané a v korejštině. Na požadavku na identifikaci požárního hydrantu a boji s ním je něco jedinečného.
Tyto testy se nazývají, což je zkratka pro Completely Automated Public Turing test, která má říci Computers and Humans Apart, a tento druh nevyzpytatelnosti plató již dosáhly. Na počátku dvacátých let stačily k vyřazení většiny spambotů jednoduché obrázky textu . Ale o deset let později, poté, co Google koupil program od výzkumníků Carnegie Mellon a použil jej k digitalizaci Knih Google, musely být texty stále více pokřivené a zakryté, aby zůstaly před zlepšováním programů optického rozpoznávání znaků – programů, které okružní cestou se všichni lidé, kteří řešili, pomáhali zlepšovat.
Protože je tak elegantním nástrojem pro trénování AI, jakýkoli daný test může být pouze dočasný, což jeho vynálezci uznali hned na začátku. Když všichni tito vědci, podvodníci a obyčejní lidé řešili miliardy hádanek těsně na prahu toho, co umělá inteligence dokáže, v určitém okamžiku nás stroje míjely. V roce 2014 společnost Google postavila jeden ze svých algoritmů strojového učení proti lidem při řešení nejvíce zkreslených textů: počítač dostal test správně v 99,8 procentech času, zatímco lidé získali pouhých 33 procent.
Google pak se přesunul k No Re, který sleduje uživatelská data a chování, aby nechal projít některé lidi kliknutím na tlačítko „Nejsem robot“, a ostatním nabídne označení obrazu, které dnes vidíme. Ale stroje jsou opět Dohánějí to. Všechny markýzy, které mohou nebo nemusí být výklady? Jsou koncovkou závodů lidstva ve zbrojení se stroji.
Jason Polakis, profesor výpočetní techniky na University of Illinois v Chicagu má osobní zásluhu na nedávném nárůstu obtížnosti. V roce 2016 publikoval článek, ve kterém používal běžné nástroje pro rozpoznávání obrázků, včetně vlastního reverzního vyhledávání obrázků Google, k řešení obrázků Google pomocí 70 procentní přesnost. Jiní vědci pomocí Googu prolomili zvukové výzvy Google Leovy vlastní programy pro rozpoznávání zvuku.
Strojové učení je nyní stejně dobré jako lidé v základních úlohách rozpoznávání textu, obrázků a hlasu, říká Polakis. Ve skutečnosti jsou algoritmy pravděpodobně na tom lépe: „Jsme v bodě, kdy ztížení softwaru skončí tím, že bude příliš obtížný pro mnoho lidí. Potřebujeme nějakou alternativu, ale zatím neexistuje konkrétní plán.“
Literatura je plná falešných začátků a podivných pokusů o nalezení něčeho jiného než rozpoznávání textu nebo obrazu, v němž jsou lidé obecně dobří a stroje s ním bojují. Vědci se pokusili požádat uživatele, aby klasifikovali obrazy lidí podle výrazu obličeje, pohlaví a etnická příslušnost. (Dokážete si představit, jak dobře to šlo.) Existují návrhy na maličkosti a s založené na dětských rýmech běžných v oblasti, kde uživatel údajně vyrůstal. Takové kultury nejsou zaměřeny jen na roboty, ale u lidí pracujících v zámořských farmách řešících hádanky za zlomek centu. Lidé si vyzkoušeli stymying rozpoznávání obrazu tím, že žádali uživatele, aby identifikovali, řekněme, prasata, ale vyráběli kreslené vtipy a dávali jim sluneční brýle. Vědci zkoumali, zda je třeba identifikovat fy objekty ve skvrnách podobných Magic Eye. V zajímavé variantě vědci v roce 2010 navrhli použít indexaci starodávných petroglyfů pomocí s, přičemž počítače nebyly moc dobré v dešifrování gestických náčrtů sobů načmáraných po stěnách jeskyně.
Nedávno se objevily snahy vyvinout hry podobné, testy, které vyžadují, aby uživatelé otáčeli objekty do určitých úhlů nebo pohybovali dílky skládaček do polohy, přičemž pokyny nebyly poskytovány v textu, ale v symbolech nebo implikovány kontextem herního plánu. Doufáme, že lidé pochopí logiku skládačky, ale počítače, které nebudou mít jasné pokyny, budou pařezy. Jiní vědci se pokusili využít skutečnosti, že lidé mají těla, pomocí kamer zařízení nebo rozšířené reality pro interaktivní důkaz lidskosti.
Problém mnoha těchto testů nemusí nutně spočívat v tom, že roboti jsou příliš chytří – je to že je lidé vysávají. A není to tak, že by lidé byli hloupí; je to tak, že lidé jsou velmi různorodí v jazyce, kultuře a zkušenostech. Jakmile se zbavíte všech těchto věcí, abyste provedli test, kterým může projít každý člověk, bez předchozího tréninku nebo velkého přemýšlení, zůstanou vám hrubé úkoly, jako je zpracování obrazu, přesně ta věc, na kterou bude AI šitá na míru dobrá .
„Testy jsou omezeny lidskými schopnostmi,“ říká Polakis. „Nejsou to jen naše fyzické schopnosti, potřebujete něco, co se liší napříč kulturami. Potřebujete nějaký typ výzvy, který funguje s někým z Řecka, někým z Chicaga, někým z Jižní Afriky, Íránu a Austrálie současně. A musí to být nezávislé na kulturních složitostech a rozdílech. Potřebujete něco, co je pro průměrného člověka snadné, nemělo by to být vázáno na konkrétní podskupinu lidí a zároveň by to mělo být těžké pro počítače. To je velmi omezující v tom, co vlastně můžete dělat. A musí to být něco, co člověk dokáže rychle, a není to příliš otravné. “
Zjištění, jak rychle opravit tyto rozmazané obrazové kvízy, vás přenese na filozofické území : jakou univerzální lidskou kvalitu lze stroji prokázat, ale kterou žádný stroj nedokáže napodobit? Co je to být člověkem?
Ale možná se naše lidství neměřuje podle toho, jak plníme úkol, ale podle toho, jak se pohybujeme ve světě – nebo v tomto případě prostřednictvím internetu. Hry, videa a jakýkoli test, který vymyslíte, budou nakonec prolomeny, říká Shuman Ghosemajumder, který dříve pracoval ve společnosti Google v boji proti podvodům s klikáním, než se stal hlavním technologickým ředitelem společnosti Shape Security pro detekci bot. Namísto testů upřednostňuje něco, co se nazývá „nepřetržité ověřování“, v podstatě pozorování chování uživatele a hledání známek automatizace. „Skutečná lidská bytost nemá příliš dobrou kontrolu nad svými vlastními motorickými funkcemi, a proto může“ Pohybujte myší stejným způsobem vícekrát více interakcemi, i když se opravdu snaží, “říká Ghosemajumder. Zatímco robot bude komunikovat se stránkou, aniž by pohyboval myší, nebo pohyboval myší velmi přesně, lidské činy mají „entropii“, kterou je těžké spoofovat, říká Ghosemajumder.
Vlastní tým společnosti Google uvažuje podobně linky. Nejnovější verze, re v3, oznámená koncem loňského roku, používá „adaptivní analýzu rizik“ k hodnocení provozu podle toho, jak podezřele se to zdá; Vlastníci webových stránek se pak mohou rozhodnout předložit útržkovitým uživatelům výzvu, například požadavek na heslo nebo dvoufaktorové ověřování. Google by neřekl, jaké faktory do tohoto skóre vstupují, kromě toho, že Google sleduje, jak vypadá spousta „dobrého provozu“ na webu, podle Cy Khormaee, produktového manažera týmu, a používá jej k detekci „špatného“ provoz.“ Vědci v oblasti zabezpečení tvrdí, že je to pravděpodobně kombinace souborů cookie, atributů prohlížeče, vzorů provozu a dalších faktorů. Jednou z nevýhod nového modelu detekce robotů je to, že díky němu může být navigace na webu při minimalizaci dohledu nepříjemná, protože věci, jako jsou VPN a rozšíření proti sledování, vás mohou označit za podezřelé a napadené.
Aaron Malenfant, vedoucí technického týmu týmu Google, říká, že odklon od Turingových testů má zabránit konkurenci, kterou lidé stále ztrácejí. „Jak lidé vkládají stále více investic do strojového učení, tyto výzvy se budou muset pro lidi stále ztěžovat, a proto jsme uvedli V3, abychom tuto křivku překonali.“ Malenfant říká, že za pět až deset let nebudou výzvy pravděpodobně vůbec životaschopné. Místo toho bude na většině webů probíhat neustálý tajný Turingův test, který běží na pozadí.
Ve své knize The Brian Christian Most Human Human se přihlásí do soutěže Turingova testu jako lidská fólie a zjistí, že je skutečně docela těžké dokázat v rozhovoru svoji lidskost. Na druhou stranu, pro výrobce botů je snadné projít, ne tím, že jsou nej výmluvnější nebo inteligentní konverzační, ale vyhýbáním se otázkám nesekvenčními vtipy, překlepy nebo v případě robota, který vyhrál Turingovu soutěž v roce 2014, prohlašoval, že je 13letý ukrajinský chlapec se špatnou znalostí angličtiny. „Chybovat je lidské. Je možné, že čeká podobná budoucnost, nejrozšířenější Turingův test na světě – nový závod ve zbrojení, který nevytváří roboty, kteří by překonali člověka při označování obrázků a analýze textu, ale těch, kteří dělají chyby, chybět tlačítka, nechat se rozptylovat a přepínat karty. “ Lidé si uvědomují, že existuje aplikace pro simulaci průměrného lidského uživatele … nebo hloupých lidí, “říká Ghosemajumder.
Testy mohou přetrvávat i v tomto světě. Amazon získal patent v roce 2017 na schéma zahrnující optické iluze a logické hádanky, které lidé mají s dešifrováním velké potíže. Jediným způsobem, který se nazývá Turingův test selháním, je chybná odpověď.
PSA: Nezveřejňujte svůj koronavirus očkovací karta selfie na sociálních médiích
Agentura na ochranu spotřebitele vyšetřující postupy sběru Venmo
Myanmar nařizuje poskytovatelům internetu blokovat Twitter a Instagram v zemi
Zobrazit všechny příběhy v Tech