Por qué los CAPTCHA se han vuelto tan difíciles

Parte de

En algún momento del año pasado, las constantes solicitudes de Google para demostrar que soy humano comenzaron a sentirse cada vez más agresivo. Cada vez más, el botón simple y un poco demasiado lindo que decía «No soy un robot» fue seguido por demandas para demostrarlo, seleccionando todos los semáforos, cruces peatonales y escaparates en una cuadrícula de imágenes. Pronto los semáforos se enterrado en un follaje distante, los cruces peatonales se doblaron y medio doblaron en una esquina, la señalización de la fachada estaba borrosa y en coreano. Hay algo especialmente desalentador en que se les pida que identifiquen una boca de incendios y luchen con ella.

Estas pruebas se denominan, un acrónimo de prueba de Turing pública completamente automatizada para diferenciar a las computadoras de los humanos, y ya han alcanzado este tipo de meseta inescrutable antes. A principios de la década de 2000, las imágenes simples de texto eran suficientes para desconcertar a la mayoría de los spambots Pero una década más tarde, después de que Google compró el programa a los investigadores de Carnegie Mellon y lo usara para digitalizar Google Books, los textos tuvieron que deformarse y oscurecerse cada vez más para mantenerse a la vanguardia de la mejora de los programas de reconocimiento óptico de caracteres, programas que, en una De manera indirecta, todos esos humanos que resolvían s estaban ayudando a mejorar.

Debido a que es una herramienta tan elegante para entrenar la IA, cualquier prueba dada solo podría ser temporal, algo que sus inventores reconocieron desde el principio. Con todos esos investigadores, estafadores y humanos comunes resolviendo miles de millones de acertijos justo en el umbral de lo que puede hacer la IA, en algún momento las máquinas nos iban a pasar. En 2014, Google enfrentó uno de sus algoritmos de aprendizaje automático contra humanos para resolver los textos más distorsionados: la computadora hizo la prueba correctamente el 99.8 por ciento de las veces, mientras que los humanos solo obtuvieron el 33 por ciento.

Google luego se trasladó a No Re, que observa los datos y el comportamiento de los usuarios para permitir que algunos humanos pasen con un clic del botón «No soy un robot», y les presenta a otros la etiqueta de imagen que vemos hoy. Pero las máquinas vuelven a ¿Todos esos toldos que pueden o no ser escaparates? Son el final de la carrera armamentista de la humanidad con las máquinas.

Jason Polakis, profesor de informática en el University of Illinois en Chicago, se atribuye el mérito personal del reciente aumento de la dificultad. En 2016, publicó un artículo en el que utilizaba herramientas de reconocimiento de imágenes estándar, incluida la búsqueda inversa de imágenes de Google, para resolver las imágenes de Google con 70 porcentaje de precisión. Otros investigadores han superado los desafíos de audio de Google utilizando Google sus propios programas de reconocimiento de audio.

El aprendizaje automático ahora es tan bueno como los humanos en tareas básicas de reconocimiento de texto, imágenes y voz, dice Polakis. De hecho, los algoritmos probablemente sean mejores en eso: «Estamos en un punto en el que dificultar el software termina haciéndolo demasiado difícil para muchas personas. Necesitamos alguna alternativa, pero aún no hay un plan concreto».

La literatura sobre está plagada de falsos comienzos y extraños intentos de encontrar algo más que el reconocimiento de texto o imágenes en lo que los humanos somos universalmente buenos y con lo que las máquinas luchan. Los investigadores han intentado pedir a los usuarios que clasifiquen las imágenes de personas por expresión facial, género y el origen étnico. (Puedes imaginar lo bien que salió.) Ha habido propuestas de trivia s, y s basadas en rimas infantiles comunes en el área donde supuestamente creció un usuario. Tales s culturales están dirigidas no solo a los bots, sino a los humanos que trabajan en granjas en el extranjero resolviendo acertijos por fracciones de un centavo. La gente ha intentado obstaculizar el reconocimiento de imágenes pidiendo a los usuarios que identifiquen, por ejemplo, cerdos, pero haciendo dibujos animados de los cerdos y dándoles gafas de sol. Los investigadores han investigado la posibilidad de pedir a los usuarios que identifiquen fy objetos en manchas como Magic Eye. En una variación intrigante, los investigadores en 2010 propusieron usar s para indexar petroglifos antiguos, ya que las computadoras no eran muy buenas para descifrar bocetos gestuales de renos garabateados en las paredes de las cuevas.

Recientemente ha habido Esfuerzos para desarrollar s similares a juegos, pruebas que requieren que los usuarios giren objetos en ciertos ángulos o muevan las piezas del rompecabezas a su posición, con instrucciones dadas no en texto sino en símbolos o implícitas en el contexto del tablero de juego. La esperanza es que los humanos entiendan la lógica del rompecabezas, pero las computadoras, que carecen de instrucciones claras, quedarían perplejas. Otros investigadores han tratado de explotar el hecho de que los humanos tienen cuerpos, usando cámaras de dispositivos o realidad aumentada para una prueba interactiva de humanidad.

El problema con muchas de estas pruebas no es necesariamente que los bots sean demasiado inteligentes, es que los humanos los chupan. Y no es que los humanos sean tontos; es que los humanos son tremendamente diversos en idioma, cultura y experiencia. Una vez que te deshaces de todas esas cosas para hacer una prueba que cualquier humano puede pasar, sin entrenamiento previo o mucho pensamiento, te quedas con tareas brutas como el procesamiento de imágenes, exactamente lo que una IA hecha a medida será buena .

«Las pruebas están limitadas por las capacidades humanas», dice Polakis. «No se trata solo de nuestras capacidades físicas, se necesita algo que sea transcultural, multilingue. Necesita algún tipo de desafío que funcione con alguien de Grecia, alguien de Chicago, alguien de Sudáfrica, Irán y Australia al mismo tiempo. Y tiene que ser independiente de las complejidades y diferencias culturales. Necesita algo que sea fácil para un humano promedio, no debería estar ligado a un subgrupo específico de personas y debería ser difícil para las computadoras al mismo tiempo. Eso es muy limitante en lo que realmente puede hacer. Y tiene que ser algo que un humano pueda hacer rápido y que no sea demasiado molesto «.

Descubrir cómo solucionar esos cuestionarios de imágenes borrosas te lleva rápidamente a un territorio filosófico : ¿Cuál es la cualidad humana universal que se le puede demostrar a una máquina, pero que ninguna máquina puede imitar? ¿Qué es ser humano?

Pero tal vez nuestra humanidad no se mida por cómo nos desempeñamos en una tarea, sino por cómo nos movemos por el mundo, o en este caso, a través de Internet. Los juegos, los videos, cualquier tipo de prueba que usted diseñe eventualmente se romperá, dice Shuman Ghosemajumder, quien anteriormente trabajó en Google combatiendo el fraude de clics antes de convertirse en el director de tecnología de la empresa de detección de bots Shape Security. En lugar de las pruebas, prefiere algo llamado «autenticación continua», que básicamente observa el comportamiento de un usuario y busca signos de automatización. «Un ser humano real no tiene muy buen control sobre sus propias funciones motoras, por lo que puede hacerlo». t mueva el mouse de la misma manera más de una vez sobre múltiples interacciones, incluso si se esfuerzan mucho ”, dice Ghosemajumder. Mientras que un bot interactúa con una página sin mover el mouse, o moviendo el mouse con mucha precisión, las acciones humanas tienen una «entropía» que es difícil de falsificar, dice Ghosemajumder.

El propio equipo de Google está pensando en algo similar La última versión, re v3, anunciada a fines del año pasado, utiliza un «análisis de riesgo adaptativo» para calificar el tráfico de acuerdo con lo sospechoso que parezca; Los propietarios de sitios web pueden optar por presentar un desafío a los usuarios incompletos, como una solicitud de contraseña o autenticación de dos factores. Google no diría qué factores influyen en esa puntuación, aparte de que Google observa cómo se ve un montón de «buen tráfico» en un sitio, según Cy Khormaee, gerente de producto del equipo, y lo usa para detectar «tráfico malo» tráfico.» Los investigadores de seguridad dicen que probablemente sea una combinación de cookies, atributos del navegador, patrones de tráfico y otros factores. Una desventaja del nuevo modelo de detección de bots es que puede hacer que navegar por la web mientras se minimiza la vigilancia sea una experiencia molesta, ya que cosas como las VPN y las extensiones anti-rastreo pueden marcarlo como sospechoso y desafiarlo.

Aaron Malenfant, el líder de ingeniería del equipo de Google, dice que el alejamiento de las pruebas de Turing está destinado a eludir la competencia que los humanos siguen perdiendo. «A medida que las personas inviertan cada vez más en el aprendizaje automático, ese tipo de desafíos tendrán que volverse cada vez más difíciles para los humanos, y esa es particularmente la razón por la que lanzamos V3, para adelantarnos a esa curva». Malenfant dice que dentro de cinco a diez años, los desafíos probablemente no serán viables en absoluto. En cambio, gran parte de la web tendrá una prueba de Turing secreta y constante ejecutándose en segundo plano.

En su libro The Brian Christian, el más humano humano, participa en una competencia de la Prueba de Turing como el contraste humano y descubre que en realidad es bastante difícil demostrar su humanidad en una conversación. Por otro lado, a los creadores de bots les ha resultado fácil pasar, no por ser los más elocuentes o conversador inteligente, pero esquivando preguntas con bromas no sequitur, cometiendo errores tipográficos o, en el caso del bot que ganó una competencia de Turing en 2014, afirmando ser un niño ucraniano de 13 años con un pobre dominio del inglés. , errar es humano. Es posible que se presente un futuro similar, la prueba de Turing más utilizada en el mundo: una nueva carrera armamentista para no crear bots que superen a los humanos en etiquetar imágenes y analizar texto, sino que cometan errores, perder botones, distraerse y cambiar de pestaña «. La gente de nk se está dando cuenta de que existe una aplicación para simular al usuario humano promedio … o humanos tontos ”, dice Ghosemajumder.

Las pruebas también pueden persistir en este mundo. Amazon recibió una patente en 2017 por un esquema que involucra ilusiones ópticas y acertijos de lógica que los humanos tienen grandes dificultades para descifrar. Llamado Prueba de Turing por falla, la única forma de aprobar es obtener la respuesta incorrecta.

Política

PSA: No publique su coronavirus selfie de tarjeta de vacunación en las redes sociales

Política

Agencia de protección al consumidor que investiga las prácticas de recolección de Venmo

Tech

Myanmar ordena a los proveedores de Internet que bloqueen Twitter e Instagram en el país

Ver todas las historias en Tech

Leave a Reply

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *