これは私の勝手な妄想なのですが、このブログでGoogleの悪口を書き始めた頃から、ブログのアクセス数が目に見えて減少したように思います。と言うと、ブログの質が落ちたからじゃないか、最近は、床屋政談のような時事問題ばかり扱っているので、検索でヒットしなくなったのは当然だ、という辛辣な声が返って来るかもしれません。ただ、今の私は、かように被害妄想を抱くほど、Googleに対しては不信感しかありません。
Web2.0の黎明期の16年前、私はこのブログで、Googleのことを半分皮肉を込めて「あらたな神」と書きましたが、その後、Googleは、かの有名な「Don't be evil」という行動規範をこっそり削除していたことがわかりました。今、私たちがGoogleに抱いているイメージも、神というより独裁者に近いものです。
検索で上位に表示されるものほど、内容のすぐれたものだとホントに言えるのでしょうか。そもそもAIは、公平で客観的な評価軸を持っているものなのでしょうか。でも、現実は欧州委員会も指摘しているように、ECサイトの「おすすめ順」と同じで、広告を出稿したりとGoogleに都合のいいサイトが上位に表示されるケースも多いのです。
千葉大学大学院教授で、科学史や科学技術社会論が専門の神里達博氏は、朝日新聞デジタルで、次のようなエピソードを紹介していました。
朝日新聞デジタル
ブラックボックスの「ご託宣」 アルゴリズムの透明性が欠かせない
AIは「artificial intelligence」の略ですが、それを直訳すれば「人工知能」です。私たちもまた、この「人工知能」という言葉に惑わされ、上記のGoogleのエンジニアと同じように、AIに幻想を抱いているのではないでしょうか。
先日、アマゾンで、代金を払ったものの商品が届かない不正なサイトにひっかかり、アマゾンと返金交渉を行いました。以前とシステムが変更になったみたいで、カスタマーセンターに問い合せると、まずAIとチャットを行なうように指示されました。
「AIチャットボット」と名乗っていましたが、何のことはない問答集を自動化したものにすぎず、「人工知能」とはほど遠いものでした。そのため、チャットをしているとイライラして来るのでした。
最後に「解決しない」を選ぶと、今度は生の人間とチャットができるのですが、しかし、一旦チャットを終えたあと、確認したいことがありカスタマーセンターに再びアクセスすると、また最初から「AIボット」相手に同じ問答をくり返さなければ前に進まないのでした。何だか「AIボット」におちょくられている感じで、イライラが募るばかりでした。
挙げ句の果てに、AIの次に出た中国名の担当者も、「AIボット」と似たような問答をくり返すだけで、私は最初、AIなのか人間なのかわからず戸惑ったくらいでした。彼女?たちもまた、マニュアルどおりの(常套句を並べるだけの)返答を行なうように訓練されているのでしょう。
AIが人間の知能や知性を凌駕する「シンギュラリティ」が2045年頃にやって来ると言う人がいますが、そのことについて、神里達博氏は次のように書いていました。
神里氏は、「そういう話を聞いたら全て、SFだと考えてよい」と書いていました。
「食べログ」が飲食店の評価に使っているアルゴリズムも、きわめて恣意的なものであったことが先日の東京地裁の判決で認定されました。要するに、もっともらしい衣装を着けたアルゴリズムが恣意的な評価の隠れ蓑になっていたのです。それが、神里氏が言う「食べログ」をめぐる「問題の核心」なのです。
私たちはネットだけではなく、人生のいろんな場面においても、既にAIやアルゴリズムに「支配」されています。でも、それは、集められたデータを基にスコアリングされ、導き出された「傾向」や「確率」を使って、推論したり再現(模倣)したものに過ぎないのです。そんな「傾向」や「確率」に、私たちは振り回されているのです。しかも、その「傾向」や「確率」は、「ブラックボックス」と化したアルゴリズムの中で操作されており、決して公平で客観的なものとは言えないのです。そもそも基礎になるデータが正しいかどうかもわかりません。入力ミスだってあるかもしれません。神里氏が言うように、「透明性」や「可読性」は大事ですが、ホントにそれが担保できるのか、きわめて疑問です。
生身の人間が評価したのなら「この野郎!」とか「間違っているだろ!」とか文句をいうこともできますが、AIから評価されたら拳を振り上げることもできません。機械的に処理され、私たち自身も機械的に受け止めるだけで、感情が介在する余地すらないのです。それはとても冷酷で怖いことですが、私たちはそんな時代に生きているのです。しかも、もう後戻りすることはできないのです。
関連記事:
あらたな神
Google
Web2.0の黎明期の16年前、私はこのブログで、Googleのことを半分皮肉を込めて「あらたな神」と書きましたが、その後、Googleは、かの有名な「Don't be evil」という行動規範をこっそり削除していたことがわかりました。今、私たちがGoogleに抱いているイメージも、神というより独裁者に近いものです。
検索で上位に表示されるものほど、内容のすぐれたものだとホントに言えるのでしょうか。そもそもAIは、公平で客観的な評価軸を持っているものなのでしょうか。でも、現実は欧州委員会も指摘しているように、ECサイトの「おすすめ順」と同じで、広告を出稿したりとGoogleに都合のいいサイトが上位に表示されるケースも多いのです。
千葉大学大学院教授で、科学史や科学技術社会論が専門の神里達博氏は、朝日新聞デジタルで、次のようなエピソードを紹介していました。
朝日新聞デジタル
ブラックボックスの「ご託宣」 アルゴリズムの透明性が欠かせない
今月、米国のIT企業グーグルのエンジニア、ブレイク・ルモイン氏が、同社が開発した対話型のAI(人工知能)「ラムダ」に、感性や意識が芽生えたと主張している、と報じられた。
まるでAIに魂が宿ったかのようだが、それは錯覚である。要するにこのシステムは、テキスト情報のビッグデータを元に、人間の会話のパターンを学習し、やりとりを模倣する仕組みに過ぎないからだ。
AIは「artificial intelligence」の略ですが、それを直訳すれば「人工知能」です。私たちもまた、この「人工知能」という言葉に惑わされ、上記のGoogleのエンジニアと同じように、AIに幻想を抱いているのではないでしょうか。
先日、アマゾンで、代金を払ったものの商品が届かない不正なサイトにひっかかり、アマゾンと返金交渉を行いました。以前とシステムが変更になったみたいで、カスタマーセンターに問い合せると、まずAIとチャットを行なうように指示されました。
「AIチャットボット」と名乗っていましたが、何のことはない問答集を自動化したものにすぎず、「人工知能」とはほど遠いものでした。そのため、チャットをしているとイライラして来るのでした。
最後に「解決しない」を選ぶと、今度は生の人間とチャットができるのですが、しかし、一旦チャットを終えたあと、確認したいことがありカスタマーセンターに再びアクセスすると、また最初から「AIボット」相手に同じ問答をくり返さなければ前に進まないのでした。何だか「AIボット」におちょくられている感じで、イライラが募るばかりでした。
挙げ句の果てに、AIの次に出た中国名の担当者も、「AIボット」と似たような問答をくり返すだけで、私は最初、AIなのか人間なのかわからず戸惑ったくらいでした。彼女?たちもまた、マニュアルどおりの(常套句を並べるだけの)返答を行なうように訓練されているのでしょう。
AIが人間の知能や知性を凌駕する「シンギュラリティ」が2045年頃にやって来ると言う人がいますが、そのことについて、神里達博氏は次のように書いていました。
かつて米国の哲学者ジョン・サールは、人工知能を「弱いAI」と「強いAI」に区別して考察した。前述のラムダや、囲碁のAIなども含め、現在実現しているAIは全て前者である。一方で後者は、感性や意識、自我や感情などを持つAIのことを指す。「ドラえもん」のように人間の友達になったり、逆に「ターミネーター」のように人類の脅威になったりするのは「強いAI」だ。
結論としては、「強いAI」は現在も、どうすれば実現できるのか、その端緒すら見えていない。また、そもそも原理的に可能なのかという点も、AIの専門家の間で意見が割れている。実現可能性を否定しない「楽観的な」専門家ですら、ほぼ全員が、できるにしても相当に遠い未来のことだろうと推測している。
(同上)
神里氏は、「そういう話を聞いたら全て、SFだと考えてよい」と書いていました。
「食べログ」が飲食店の評価に使っているアルゴリズムも、きわめて恣意的なものであったことが先日の東京地裁の判決で認定されました。要するに、もっともらしい衣装を着けたアルゴリズムが恣意的な評価の隠れ蓑になっていたのです。それが、神里氏が言う「食べログ」をめぐる「問題の核心」なのです。
IT化によって客観的で公平な評価が実現すると期待している人は少なくないだろう。だが、どんなシステムも、運用するのはAIではなく人間だ。そこでは、透明性や可読性が欠かせない。
(同上)
私たちはネットだけではなく、人生のいろんな場面においても、既にAIやアルゴリズムに「支配」されています。でも、それは、集められたデータを基にスコアリングされ、導き出された「傾向」や「確率」を使って、推論したり再現(模倣)したものに過ぎないのです。そんな「傾向」や「確率」に、私たちは振り回されているのです。しかも、その「傾向」や「確率」は、「ブラックボックス」と化したアルゴリズムの中で操作されており、決して公平で客観的なものとは言えないのです。そもそも基礎になるデータが正しいかどうかもわかりません。入力ミスだってあるかもしれません。神里氏が言うように、「透明性」や「可読性」は大事ですが、ホントにそれが担保できるのか、きわめて疑問です。
生身の人間が評価したのなら「この野郎!」とか「間違っているだろ!」とか文句をいうこともできますが、AIから評価されたら拳を振り上げることもできません。機械的に処理され、私たち自身も機械的に受け止めるだけで、感情が介在する余地すらないのです。それはとても冷酷で怖いことですが、私たちはそんな時代に生きているのです。しかも、もう後戻りすることはできないのです。
関連記事:
あらたな神