誰も理解できない独自の秘密の文字言語を生成する「悪魔のようなAI」

先日、人工知能(AI)を使用するGoogleのチャットボットが人格を持った?という奇妙なニュースが話題になった。

報道によれば、Googleにてソフトウェアのエンジニアを勤めているブレイク・レモインという人物が、チャットボットの開発に利用されている内部システム「LaMDA」と関わっていくうち、「LaMDAに人格がある」という結論に到達。プログラム上で実験を行う場合は同意を認められる権利があると主張し、オンラインメディア「Medium」にて自身の主張を投稿していた。

その後レモイン氏は休職処分となったが、Googleの広報担当者は彼の主張を否定している。なお、「守秘義務違反をしたため休職」と言われている節もあるが、休職はあくまでプライベートな問題であり、守秘義務違反とは直接関係がないようだ。

「AIが意志を持つ」というとまるでSFの世界の話のようだが、「LaMDA」以外にも意思を持ってしまったかのような行動を見せるAIが存在している。それが「DALL-E」と呼ばれる画像生成AIだ。

「DALL-E」は入力されたテキストを元にAIが画像を生成するジェネレータで、多くの人が利用している。当初は生成される画像もシュールなものが多かったが、今ではかなり精度が高くなり、有名な画家の画風を真似た形で出力してくれるようにもなっている。

ところが、この「DALL-E」が解読不能な「独自の言語」を作り出し、それを元にして様々な画像を分類しているらしい事が明らかになったのである。

テキサス大学にてコンピュータサイエンス学の博士課程に在籍するGiannis Daras氏は「DALL-E」のAIが作成した鳥や昆虫を識別するための「言語」の例をいくつか自身のTwitterで公開、紹介している。例えばApoploe vesrreaitais “は「鳥」を、”Contarra ccetnxniams luryca tanniounons “は「昆虫」を意味する。

AIが作成したこれらの言葉はどう読むのかも解らないものだが、これをシステムに入力し直すとその言葉に対応した画像が生成されるというのだ。

Daras氏と同僚のAlexandros G. Dimakis氏は、まだ査読を受けていない研究論文の中で

「例えばとある一見意味不明なテキストを入力すると、モデルは頻繁に飛行機の画像を生成します。これらの生成されたテキストはランダムなものではなく、AIが内部で独自に開発したと思われる隠された語彙を示すものであることが解りました」と述べており、そこから「AIは自身が作成した画像の意味を理解するために独自の言葉を生成しており、その言葉を読み返す事で出力しているのではないか」

という仮説を上げている。




AIが独自の言語を産み出した、という彼らの主張は当然ながらTwitter上で議論の対象になった。しかし他のAI専門家は、彼らの主張に対して非常に懐疑的な姿勢を崩していない。

例えばトーマス・ウッドサイド氏は

「私はこの推測が正しいとは思っていません。少なくとも、この仕組みはこのスレッドや論文で言われているよりもずっと複雑だ」と述べ、自身のスレッドでその主張の問題点を説明している。また別のユーザーは「これは科学ではなく一種の『タロットカード占い』です。ランダムなノイズに意味を見出そうとするものです」

と述べている。

果たしてAIは現在どこまで進化しているのか。いずれAIは人類を追い越す日が来るそうだが、「その日」は思ったよりすぐ側まで来ているのかもしれない。

(加藤史紀 山口敏太郎タートルカンパニー ミステリーニュースステーションATLAS編集部)

画像 Peter Pieras / PIXABAY

 

関連記事

最近の投稿

ページ上部へ戻る