À un moment donné l’année dernière, les demandes constantes de Google pour prouver que je suis humain ont commencé à se sentir de plus en plus agressif. De plus en plus, le simple bouton un peu trop mignon disant « Je ne suis pas un robot » était suivi d’exigences pour le prouver – en sélectionnant tous les feux de signalisation, les passages pour piétons et les devantures de magasins dans une grille d’image. Bientôt, les feux de signalisation étaient ensevelis dans des feuillages lointains, les passages pour piétons déformés et à moitié dans un coin, la signalisation de la devanture est floue et en coréen. Il y a quelque chose de particulièrement décourageant à être invité à identifier une bouche d’incendie et à lutter contre elle.
Ces tests sont appelés, un acronyme de Test de Turing public entièrement automatisé pour dire Computers and Humans Apart, et ils ont déjà atteint ce genre de plateau d’inscrutabilité. Au début des années 2000, de simples images de texte suffisaient à décaper la plupart des spambots Mais une décennie plus tard, après que Google eut acheté le programme aux chercheurs de Carnegie Mellon et l’utilisa pour numériser Google Livres, les textes devaient être de plus en plus déformés et obscurcis pour rester en avance sur l’amélioration des programmes de reconnaissance optique de caractères – des programmes qui, dans un De manière détournée, tous ces humains résolvant les s aidaient à s’améliorer.
Parce qu’il s’agit d’un outil si élégant pour entraîner l’IA, un test donné ne peut être que temporaire, ce que ses inventeurs ont reconnu au départ. Avec tous ces chercheurs, escrocs et humains ordinaires résolvant des milliards d’énigmes juste au seuil de ce que l’IA peut faire, à un moment donné, les machines allaient nous passer. En 2014, Google a opposé l’un de ses algorithmes d’apprentissage automatique aux humains pour résoudre les textes les plus déformés: l’ordinateur a réussi le test 99,8% du temps, tandis que les humains n’ont obtenu que 33%.
Google puis déplacé vers No Re, qui observe les données et le comportement des utilisateurs pour laisser passer certains humains en un clic sur le bouton « Je ne suis pas un robot », et présente aux autres l’étiquetage d’image que nous voyons aujourd’hui. Mais les machines le sont encore une fois rattrapage. Tous ces auvents qui peuvent ou non être des vitrines? Ils sont la fin de la course aux armements de l’humanité avec les machines.
Jason Polakis, professeur d’informatique à la L’Université de l’Illinois à Chicago se félicite personnellement de la récente augmentation de la difficulté. En 2016, il a publié un article dans lequel il a utilisé des outils de reconnaissance d’images standard, y compris la recherche d’images inversée de Google, pour résoudre les images de Google avec 70 pourcentage de précision. D’autres chercheurs ont résolu les problèmes audio de Google en utilisant Google les propres programmes de reconnaissance audio.
L’apprentissage automatique est désormais aussi efficace que les humains pour les tâches de base de reconnaissance de texte, d’image et de voix, dit Polakis. En fait, les algorithmes sont probablement meilleurs dans ce domaine: « Nous sommes à un point où rendre les logiciels plus difficiles finit par rendre les choses trop difficiles pour beaucoup de gens. Nous avons besoin d’une alternative, mais il n’y a pas encore de plan concret. »
La littérature sur est jonchée de faux départs et d’étranges tentatives pour trouver autre chose que la reconnaissance de texte ou d’image pour laquelle les humains sont universellement doués et avec laquelle les machines ont du mal. Les chercheurs ont essayé de demander aux utilisateurs de classer les images de personnes par expression faciale, sexe (Vous pouvez imaginer à quel point cela s’est bien passé.) Il y a eu des propositions de trivia s, et s basées sur des comptines communes dans la région où un utilisateur aurait grandi. Ces cultures ne visent pas seulement les robots, mais des humains travaillant dans des fermes à l’étranger résolvant des énigmes pour des fractions d’un centime. Les gens ont essayé de contrecarrer la reconnaissance d’image en demandant aux utilisateurs d’identifier, par exemple, les porcs, mais en faisant des dessins animés sur les cochons et en leur donnant des lunettes de soleil. Les chercheurs ont cherché à demander aux utilisateurs de s’identifier. objets dans des taches ressemblant à des yeux magiques. Dans une variante intrigante, les chercheurs en 2010 ont proposé d’utiliser s pour indexer les pétroglyphes anciens, les ordinateurs n’étant pas très bons pour déchiffrer les croquis gestuels de rennes griffonnés sur les murs des grottes.
Récemment, il y a eu des efforts pour développer des tests de type jeu, qui obligent les utilisateurs à faire pivoter des objets selon certains angles ou à mettre des pièces de puzzle en place, avec des instructions données non pas sous forme de texte mais sous forme de symboles ou implicites par le contexte du plateau de jeu. L’espoir est que les humains comprendraient la logique du puzzle, mais les ordinateurs, dépourvus d’instructions claires, seraient perplexes. D’autres chercheurs ont essayé d’exploiter le fait que les humains ont des corps, en utilisant des appareils photo ou la réalité augmentée pour une preuve interactive de l’humanité.
Le problème avec beaucoup de ces tests n’est pas nécessairement que les robots sont trop intelligents – c’est que les humains les sucent. Et ce n’est pas que les humains soient stupides; c’est que les humains sont extrêmement diversifiés en termes de langue, de culture et d’expérience. Une fois que vous vous êtes débarrassé de tout cela pour faire un test que n’importe quel humain peut réussir, sans formation préalable ni beaucoup de réflexion, vous vous retrouvez avec des tâches brutes comme le traitement d’image, exactement ce à quoi une IA sur mesure sera bonne. .
« Les tests sont limités par les capacités humaines », dit Polakis. « Ce ne sont pas seulement nos capacités physiques, vous avez besoin de quelque chose qui transcende les cultures, les langues. Vous avez besoin d’un type de défi qui fonctionne avec quelqu’un de Grèce, quelqu’un de Chicago, quelqu’un d’Afrique du Sud, d’Iran et d’Australie en même temps. Et il doit être indépendant des subtilités et des différences culturelles. Vous avez besoin de quelque chose qui soit facile pour un humain moyen, cela ne devrait pas être lié à un sous-groupe spécifique de personnes et cela devrait être difficile pour les ordinateurs en même temps. C’est très limité dans ce que vous pouvez réellement faire. Et ce doit être quelque chose qu’un humain peut faire rapidement, et ce n’est pas trop ennuyeux. »
Trouver comment résoudre ces quiz d’images floues vous emmène rapidement dans un territoire philosophique : quelle est la qualité humaine universelle qui peut être démontrée à une machine, mais qu’aucune machine ne peut imiter? Qu’est-ce qu’être humain?
Mais peut-être que notre humanité ne se mesure pas à la façon dont nous accomplissons une tâche, mais à la façon dont nous nous déplaçons à travers le monde – ou dans ce cas, à travers Internet. Les jeux, les vidéos, quel que soit le type de test que vous concevez, seront finalement cassés, explique Shuman Ghosemajumder, qui travaillait auparavant chez Google pour lutter contre la fraude au clic avant de devenir le directeur de la technologie de la société de détection de bots Shape Security. Plutôt que des tests, il privilégie ce qu’on appelle «l’authentification continue», qui consiste essentiellement à observer le comportement d’un utilisateur et à rechercher des signes d’automatisation. «Un vrai être humain n’a pas un très bon contrôle sur ses propres fonctions motrices, et donc il peut ‘ t déplacez la souris de la même manière plus d’une fois sur plusieurs interactions, même si elles essaient vraiment fort », dit Ghosemajumder. Alors qu’un bot interagit avec une page sans bouger de souris, ou en déplaçant une souris très précisément, les actions humaines ont une « entropie » difficile à usurper, dit Ghosemajumder.
L’équipe de Google pense de la même manière La dernière version, re v3, annoncée à la fin de l’année dernière, utilise «l’analyse adaptative des risques» pour évaluer le trafic en fonction de son caractère suspect; Les propriétaires de sites Web peuvent alors choisir de présenter aux utilisateurs sommaires un défi, comme une demande de mot de passe ou une authentification à deux facteurs. Google ne dirait pas quels facteurs entrent dans ce score, à part que Google observe à quoi ressemble un tas de « bon trafic » sur un site, selon Cy Khormaee, chef de produit de l’équipe, et l’utilise pour détecter « mauvais circulation. » Les chercheurs en sécurité affirment qu’il s’agit probablement d’un mélange de cookies, d’attributs de navigateur, de modèles de trafic et d’autres facteurs. L’un des inconvénients du nouveau modèle de détection de bots est qu’il peut rendre la navigation sur le Web tout en minimisant la surveillance une expérience ennuyeuse, car des éléments tels que les VPN et les extensions anti-tracking peuvent vous faire signaler comme suspect et contesté.
Aaron Malenfant, le responsable de l’ingénierie de l’équipe de Google, affirme que l’abandon des tests de Turing vise à éviter la concurrence que les humains continuent de perdre. « Alors que les gens investissent de plus en plus dans l’apprentissage automatique, ce type de défis devra devenir de plus en plus difficile pour les humains, et c’est en particulier pourquoi nous avons lancé la V3, pour prendre de l’avance sur cette courbe. » Malenfant dit que d’ici cinq à dix ans, les défis ne seront probablement plus viables. Au lieu de cela, une grande partie du Web aura un test de Turing constant et secret en arrière-plan.
Dans son livre The Most Human Human, Brian Christian participe à un concours de test de Turing en tant que fleuret humain et constate qu’il est en fait assez difficile de prouver votre humanité dans une conversation. D’un autre côté, les fabricants de robots ont trouvé que c’était facile de passer, pas en étant le plus éloquent ou causeur intelligent, mais en évitant les questions avec des blagues non séquentielles, en faisant des fautes de frappe, ou dans le cas du robot qui a remporté un concours de Turing en 2014, se prétendant un garçon ukrainien de 13 ans avec une mauvaise maîtrise de l’anglais. Après tout , l’erreur est humaine. Il est possible qu’un avenir similaire se prépare, le test de Turing le plus largement utilisé dans le monde – une nouvelle course aux armements pour ne pas créer de robots qui surpassent les humains dans l’étiquetage des images et l’analyse du texte, mais ceux qui font des erreurs, manquez des boutons, soyez distrait et changez d’onglet. « Je thi Les gens de nk se rendent compte qu’il existe une application pour simuler l’utilisateur humain moyen … ou les humains stupides », dit Ghosemajumder.
Les tests peuvent également persister dans ce monde. Amazon a reçu un brevet en 2017 pour un système impliquant des illusions d’optique et des énigmes logiques que les humains ont de grandes difficultés à déchiffrer. Appelé test de Turing par échec, le seul moyen de réussir est de se tromper de réponse.
PSA: ne publiez pas votre coronavirus carte de vaccination selfie sur les réseaux sociaux
L’agence de protection des consommateurs enquête sur les pratiques de collecte de Venmo
Le Myanmar ordonne aux fournisseurs d’accès Internet de bloquer Twitter et Instagram dans le pays
Voir toutes les histoires dans Tech