Por que os CAPTCHAs ficaram tão difíceis

Parte de

Em algum momento do ano passado, as solicitações constantes do Google para provar que sou humano começaram a parecer cada vez mais agressivo. Cada vez mais, o botão simples e um pouco fofo demais dizendo “Não sou um robô” foi seguido por demandas para provar isso – selecionando todos os semáforos, faixas de pedestres e vitrines em uma grade de imagens. Logo os semáforos estavam enterrado em folhagens distantes, as faixas de pedestres empenadas e meio ao virar de uma esquina, a sinalização da loja borrada e em coreano. Há algo particularmente desanimador em ser solicitado a identificar um hidrante e lutar contra ele.

Esses testes são chamados de, um acrônimo para Teste de Turing Público Completamente Automatizado para distinguir Computadores e Humanos, e eles já alcançaram esse tipo de platô inescrutável antes. No início dos anos 2000, imagens simples de texto eram suficientes para derrubar a maioria dos spambots . Mas uma década depois, depois que o Google comprou o programa dos pesquisadores da Carnegie Mellon e o usou para digitalizar o Google Books, os textos tiveram que ser cada vez mais distorcidos e obscurecidos para ficar à frente de programas de reconhecimento óptico de caracteres – programas que, em um De forma indireta, todos aqueles humanos resolvendo s estavam ajudando a melhorar.

Por ser uma ferramenta tão elegante para treinar IA, qualquer teste dado poderia ser apenas temporário, algo que seus inventores reconheceram no início. Com todos aqueles pesquisadores, golpistas e humanos comuns resolvendo bilhões de quebra-cabeças apenas no limiar do que a IA pode fazer, em algum ponto as máquinas iriam passar por nós. Em 2014, o Google opôs um de seus algoritmos de aprendizado de máquina a humanos para resolver os textos mais distorcidos: o computador acertou o teste 99,8% das vezes, enquanto os humanos acertaram apenas 33%.

Google em seguida, mudou-se para No Re, que observa os dados e o comportamento do usuário para permitir que alguns humanos passem com um clique no botão “Eu não sou um robô”, e apresenta a outros o rótulo de imagem que vemos hoje. Mas as máquinas estão novamente recuperando o atraso. Todos aqueles toldos que podem ou não ser vitrines? Eles são o fim do jogo na corrida armamentista da humanidade com as máquinas.

Jason Polakis, professor de ciência da computação no A Universidade de Illinois em Chicago leva crédito pessoal pelo recente aumento da dificuldade. Em 2016, ele publicou um artigo no qual usava ferramentas de reconhecimento de imagem prontas para uso, incluindo a própria busca reversa de imagens do Google, para resolver os problemas de imagem do Google com 70 precisão percentual. Outros pesquisadores quebraram os desafios de áudio do Google usando Goog os próprios programas de reconhecimento de áudio.

O aprendizado de máquina agora é tão bom quanto os humanos em tarefas básicas de texto, imagem e reconhecimento de voz, diz Polakis. Na verdade, os algoritmos provavelmente são melhores nisso: “Estamos em um ponto em que tornar mais difícil para o software acaba tornando-o muito difícil para muitas pessoas. Precisamos de alguma alternativa, mas ainda não há um plano concreto.”

A literatura sobre está repleta de falsos começos e estranhas tentativas de encontrar algo diferente de texto ou reconhecimento de imagem em que os humanos são universalmente bons e com os quais as máquinas lutam. Pesquisadores tentaram pedir aos usuários que classificassem as imagens de pessoas por expressão facial, gênero e etnia. (Você pode imaginar como foi isso.) Houve propostas de curiosidades e s com base em rimas infantis comuns na área onde o usuário supostamente cresceu. Esses s culturais não são voltados apenas para bots, mas para os humanos que trabalham em fazendas no exterior resolvendo quebra-cabeças por frações de um centavo. As pessoas tentaram impedir o reconhecimento de imagens pedindo aos usuários que identificassem, por exemplo, os porcos, mas fazendo caricaturas aos porcos e dando-lhes óculos de sol. Os pesquisadores tentaram pedir aos usuários que identificassem fy objetos em manchas semelhantes a olhos mágicos. Em uma variação intrigante, pesquisadores em 2010 propuseram o uso de s para indexar petróglifos antigos, os computadores não sendo muito bons em decifrar esboços gestuais de renas rabiscadas nas paredes das cavernas.

Recentemente, houve esforços para desenvolver s semelhantes a jogos, testes que exigem que os usuários girem objetos em certos ângulos ou movam peças do quebra-cabeça para a posição, com instruções fornecidas não em texto, mas em símbolos ou implícitas no contexto do tabuleiro de jogo. A esperança é que os humanos entendam a lógica do quebra-cabeça, mas os computadores, sem instruções claras, ficariam perplexos. Outros pesquisadores tentaram explorar o fato de que os humanos têm corpos, usando câmeras de dispositivos ou realidade aumentada para uma prova interativa da humanidade.

O problema com muitos desses testes não é necessariamente que os bots sejam muito inteligentes – é que os humanos os sugam. E não é que os humanos sejam burros; é que os humanos são extremamente diversos em linguagem, cultura e experiência. Depois de se livrar de tudo isso para fazer um teste no qual qualquer ser humano pode passar, sem treinamento prévio ou muito pensamento, você fica com tarefas brutas como processamento de imagem, exatamente o que uma IA feita sob medida vai ser boa .

“Os testes são limitados pelas capacidades humanas”, diz Polakis. “Não se trata apenas de nossas capacidades físicas, você precisa de algo que transcenda as culturas e os idiomas. Você precisa de algum tipo de desafio que funcione com alguém da Grécia, alguém de Chicago, alguém da África do Sul, Irã e Austrália ao mesmo tempo. E deve ser independente de complexidades e diferenças culturais. Você precisa de algo que seja fácil para um ser humano médio, não deve ser limitado a um subgrupo específico de pessoas e deve ser difícil para computadores ao mesmo tempo. Isso é muito limitante no que você pode realmente fazer. E tem que ser algo que um humano possa fazer rápido e não seja muito chato. ”

Descobrir como consertar esses testes de imagens borradas leva você rapidamente para um território filosófico : qual é a qualidade humana universal que pode ser demonstrada a uma máquina, mas que nenhuma máquina pode imitar? O que é ser humano?

Mas talvez a nossa humanidade não seja medida pela forma como executamos uma tarefa, mas pela forma como nos movemos pelo mundo – ou, neste caso, pela internet. Jogos, vídeos e qualquer tipo de teste que você invente acabará sendo quebrado, diz Shuman Ghosemajumder, que já trabalhou no Google no combate à fraude de cliques antes de se tornar o diretor de tecnologia da empresa de detecção de bots Shape Security. Em vez de testes, ele prefere algo chamado “autenticação contínua”, essencialmente observando o comportamento de um usuário e procurando por sinais de automação. “Um ser humano real não tem um controle muito bom sobre suas próprias funções motoras e, portanto, pode” t mova o mouse da mesma maneira mais de uma vez em várias interações, mesmo que eles se esforcem muito ”, diz Ghosemajumder. Embora um bot interaja com uma página sem mover um mouse ou movendo um mouse com muita precisão, as ações humanas têm “entropia” difícil de falsificar, diz Ghosemajumder.

A própria equipe do Google está pensando de maneira semelhante A versão mais recente, re v3, anunciada no final do ano passado, usa “análise de risco adaptativa” para classificar o tráfego de acordo com sua aparência suspeita; os proprietários de sites podem então optar por apresentar aos usuários incompletos um desafio, como uma solicitação de senha ou autenticação de dois fatores. O Google não disse quais fatores entram nessa pontuação, a não ser que o Google observa como é um monte de “tráfego bom” em um site, de acordo com Cy Khormaee, gerente de produto da equipe, e usa isso para detectar “mau tráfego.” Pesquisadores de segurança dizem que provavelmente é uma mistura de cookies, atributos do navegador, padrões de tráfego e outros fatores. Uma desvantagem do novo modelo de detecção de bot é que ele pode tornar a navegação na web enquanto minimiza a vigilância uma experiência irritante, pois coisas como VPNs e extensões anti-rastreamento podem fazer com que você seja sinalizado como suspeito e desafiado.

Aaron Malenfant, o líder de engenharia da equipe do Google, diz que o afastamento dos testes de Turing tem como objetivo evitar a competição que os humanos continuam perdendo. “Conforme as pessoas investem cada vez mais em aprendizado de máquina, esses tipos de desafios terão que ficar cada vez mais difíceis para os humanos, e é especialmente por isso que lançamos o V3, para ficar à frente dessa curva.” Malenfant diz que daqui a cinco a dez anos, os desafios provavelmente não serão viáveis. Em vez disso, grande parte da web terá um teste de Turing constante e secreto sendo executado em segundo plano.

Em seu livro The A maioria dos humanos, Brian Christian entra em uma competição do Teste de Turing como o contraste humano e descobre que é muito difícil provar sua humanidade em uma conversa. Por outro lado, os fabricantes de bots acharam fácil passar, não por serem os mais eloqüentes ou conversador inteligente, mas se esquivando de perguntas com piadas non sequitur, cometendo erros de digitação ou, no caso do bot que venceu uma competição de Turing em 2014, alegando ser um garoto ucraniano de 13 anos com péssimo domínio do inglês. Afinal , errar é humano. É possível que um futuro semelhante esteja reservado para o teste de Turing mais amplamente usado no mundo – uma nova corrida armamentista, não para criar bots que superam os humanos em rotular imagens e analisar texto, mas sim aqueles que cometem erros, perca os botões, distraia-se e mude de guia. “Isso Mas o pessoal está percebendo que existe um aplicativo para simular o usuário humano médio … ou humanos burros ”, diz Ghosemajumder.

Os testes também podem persistir neste mundo. A Amazon recebeu uma patente em 2017 para um esquema envolvendo ilusões de ótica e quebra-cabeças lógicos que os humanos têm grande dificuldade em decifrar. Chamado de Teste de Turing em caso de falha, a única maneira de passar é errar a resposta.

Política

PSA: não publique seu coronavírus selfie cartão de vacinação nas redes sociais

Política

Agência de proteção ao consumidor que investiga as práticas de coleta da Venmo

Tecnologia

Mianmar ordena que provedores de internet bloqueiem o Twitter e Instagram no país

Veja todas as histórias em Tech

Leave a Reply

Deixe uma resposta

O seu endereço de email não será publicado. Campos obrigatórios marcados com *