昨年のある時点で、私が人間であることを証明するというGoogleの絶え間ない要求が感じ始めましたますます攻撃的。 「私はロボットじゃない」というシンプルで少し可愛すぎるボタンの後に、画像グリッドですべての信号機、横断歩道、店先を選択することで、それを証明するよう求める要求がますます増えました。すぐに信号機は遠くの葉に埋もれ、横断歩道が曲がり、角を曲がったところにあり、店先の看板がぼやけていて、韓国語で書かれています。消火剤の特定を求められ、それに苦労していることには、独特の意欲をそそるものがあります。
これらのテストは、Computers and Humans Apartを区別するためのCompletelyAutomated Public Turing testの頭字語と呼ばれ、以前はこの種の不可解なプラトーに達していました。2000年代初頭には、テキストの単純な画像でほとんどのスパムボットを困惑させることができました。しかし、10年後、GoogleがCarnegie Mellonの研究者からプログラムを購入し、それを使用してGoogle Booksをデジタル化した後、光学式文字認識プログラムの改善に先んじるために、テキストをますます歪めたり隠したりする必要がありました。ラウンドアバウトの方法で、sを解決するすべての人間が改善に役立っていました。
AIをトレーニングするための非常に洗練されたツールであるため、特定のテストは一時的なものにすぎず、発明者は最初に認めました。これらすべての研究者、詐欺師、そして普通の人間が、AIができることの限界で数十億のパズルを解き、ある時点でマシンが私たちを通り過ぎようとしていました。 2014年、Googleは、最も歪んだテキストを解決するために、機械学習アルゴリズムの1つを人間に対抗しました。コンピューターは、99.8%の確率でテストを正しく受けましたが、人間はわずか33%でした。
Google次に、No Reに移動しました。これは、ユーザーデータと動作を監視して、「私はロボットではありません」ボタンをクリックするだけで一部の人間を通過させ、他の人間に今日見られる画像ラベルを表示します。しかし、機械は再び追いつく。店先であるかもしれないし、そうでないかもしれないすべての日よけ?それらは機械との人類の武器競争の終盤です。
ジェイソン・ポラキス、コンピュータサイエンス教授イリノイ大学シカゴ校は、最近の難易度の上昇を個人的に評価しています。2016年に、彼はGoogle独自の逆画像検索などの既製の画像認識ツールを使用してGoogleの画像を70で解決した論文を発表しました。パーセント精度。他の研究者は、Googを使用してGoogleのオーディオの課題を打ち破りましたル独自の音声認識プログラム。
機械学習は、基本的なテキスト、画像、音声認識のタスクで人間とほぼ同じくらい優れていると、ポラキス氏は言います。実際、アルゴリズムの方がおそらく優れています。「ソフトウェアを難しくすると、多くの人にとって難しくなりすぎるという段階にあります。いくつかの代替手段が必要ですが、具体的な計画はまだありません。」
に関する文献には、誤ったスタートや、人間が普遍的に得意で機械が苦労しているテキストや画像認識以外のものを見つけるという奇妙な試みが散らばっています。研究者は、顔の表情、性別によって人々の画像を分類するようにユーザーに求めようとしました。 、そして民族性。(それがどれほどうまくいったか想像できます。)ユーザーが育ったとされる地域で一般的な保育園のリズムに基づいたトリビアやの提案があります。このような文化はボットだけでなく、ボットを対象としています。海外の農場で働いている人間が数分の1セントでパズルを解いている。人々はユーザーにたとえば豚を特定するように頼むが、豚を漫画にしてサングラスを与えることで画像認識をスタイリッシュにしようとした。研究者たちはユーザーに特定を求めることを検討した。マジックアイのようなしみのオブジェクトをファイします。興味深いバリエーションとして、2010年の研究者は、sを使用して古代のペトログリフのインデックスを作成することを提案しました。コンピューターは、洞窟の壁に走り書きされたトナカイのジェスチャースケッチを解読するのがあまり得意ではありません。
最近、ゲームのようなものを開発するための努力。ユーザーがオブジェクトを特定の角度に回転させたり、パズルのピースを所定の位置に移動したりする必要があるテスト。指示はテキストではなく記号で示されるか、ゲームボードのコンテキストによって暗示されます。人間がパズルの論理を理解することを望んでいますが、明確な指示がないコンピューターは困惑するでしょう。他の研究者は、人間が身体を持っているという事実を利用しようとしました。デバイスカメラや拡張現実を使用して、人間性をインタラクティブに証明します。
これらのテストの多くの問題は、必ずしもボットが賢すぎるということではありません。人間がそれらを吸うこと。そして、それは人間が愚かであるということではありません。人間は言語、文化、経験が非常に多様であるということです。事前のトレーニングやよく考えずに、人間が合格できるテストを行うためにこれらすべてのものを取り除くと、画像処理などの野蛮なタスクが残ります。まさに、オーダーメイドのAIが得意とすることです。 。
「テストは人間の能力によって制限されます」とPolakis氏は言います。「それは私たちの身体能力だけでなく、文化や言語を超えた何かが必要です。ギリシャの誰か、シカゴの誰か、南アフリカ、イラン、オーストラリアの誰かと同時に働くある種の挑戦が必要です。そして、それは文化的な複雑さや違いから独立している必要があります。平均的な人間にとって簡単なものが必要です。特定のサブグループの人々に縛られるべきではなく、同時にコンピューターにとっても難しいものでなければなりません。それはあなたが実際にできることを非常に制限しています。そして、それは人間が速くできるものでなければならず、それほど煩わしいものではありません。」
これらのぼやけた画像クイズを修正する方法を理解すると、哲学的な領域にすばやく移動できます。 :機械に示すことができるが、どの機械も模倣できないという普遍的な人間の資質とは何ですか?人間であるとは何ですか?
しかし、私たちの人間性は、タスクをどのように実行するかではなく、世界をどのように移動するか、この場合はインターネットを介して測定されるのかもしれません。ボット検出会社ShapeSecurityの最高技術責任者になる前にGoogleでクリック詐欺と戦っていたShumanGhosemajumder氏は、ゲームやビデオなど、あなたが考案したあらゆる種類のテストは最終的には破られるだろうと述べています。彼は、テストではなく、「継続的な認証」と呼ばれるものを好み、基本的にユーザーの行動を観察し、自動化の兆候を探します。「実際の人間は、自分の運動機能をうまく制御できないため、そうすることができます。」たとえ彼らが本当に一生懸命に努力したとしても、複数の相互作用にわたって同じ方法でマウスを複数回動かすことはできません」とGhosemajumderは言います。ボットはマウスを動かさずに、またはマウスを非常に正確に動かすことでページを操作しますが、人間の行動にはなりすましが難しい「エントロピー」があると、Ghosemajumder氏は言います。
Googleのチームも同様の考えを持っています。昨年末に発表された最新バージョンのrev3は、「適応型リスク分析」を使用して、疑わしいと思われるトラフィックに応じてトラフィックをスコアリングします。その後、Webサイトの所有者は、大ざっぱなユーザーにパスワード要求や2要素認証などの課題を提示することを選択できます。チームのプロダクトマネージャーであるCyKhormaee氏によると、Googleはサイトの「良いトラフィック」の束がどのように見えるかを観察し、それを使用して「悪い」を検出することを除いて、そのスコアにどのような要素が含まれるかについては述べません。トラフィック。”セキュリティ研究者によると、Cookie、ブラウザの属性、トラフィックパターン、その他の要因が混在している可能性があります。ボット検出の新しいモデルの欠点の1つは、VPNやアンチトラッキング拡張機能などにより、疑わしいとのフラグが立てられる可能性があるため、監視を最小限に抑えながらWebをナビゲートできることです。
GoogleのチームのエンジニアリングリーダーであるAaronMalenfantは、チューリングテストからの移行は、人間が負け続ける競争を回避することを目的としていると述べています。 「人々が機械学習にますます投資するにつれて、そのような種類の課題は人間にとってますます難しくなる必要があります。そのため、その時代を先取りするためにV3を立ち上げました。」マレンファント氏によると、5年から10年後は、課題はまったく実行可能ではなくなる可能性があります。代わりに、ウェブの多くで、バックグラウンドで常に秘密のチューリングテストが実行されます。
彼の著書「Theほとんどの人間の人間であるブライアンクリスチャンは、人間のホイルとしてチューリングテストのコンテストに参加し、会話で人間性を証明することは実際には非常に難しいことを発見しました。一方、ボットメーカーは、最も雄弁であるか、インテリジェントな会話主義者ですが、非セクイタージョークで質問を避けたり、タイプミスをしたり、2014年にチューリングテストで優勝したボットの場合は、英語の理解が不十分な13歳のウクライナ人の少年であると主張しています。 、間違いを犯すのは人間です。世界で最も広く使用されているチューリングテストについても同様の未来が待ち受けている可能性があります。画像のラベル付けやテキストの解析で人間を超えるボットを作成するのではなく、間違いを犯すボットを作成する新しい武器レースです。ボタンを見逃し、気を散らして、タブを切り替えます。 nkの人々は、平均的な人間のユーザーや愚かな人間をシミュレートするためのアプリケーションがあることに気づいています」とGhosemajumder氏は言います。
テストはこの世界でも続く可能性があります。アマゾンは、人間が解読するのが非常に難しい目の錯覚と論理パズルを含むスキームについて、2017年に特許を取得しました。失敗してチューリングテストと呼ばれ、合格する唯一の方法は答えを間違えることです。
PSA:コロナウイルスを投稿しないでくださいソーシャルメディアでのワクチン接種カードの自撮り
Venmoの収集慣行を調査する消費者保護機関
MyanmarはインターネットプロバイダーにTwitterをブロックするように命令しますと国内のInstagram
テックですべてのストーリーを表示