AI兵器は小さな缶ほどの大きさでも人類を滅ぼす可能性あり

近年、目覚ましい進化を見せる人工知能(AI)の分野だが、このまま進歩していくとどうなるのだろうか・・・。

人間の知能を超え、AIが人類を排除する方向に向かうかもしれないと予想する専門家も少なくない。カリフォルニア大学コンピュータの専門家であるスチュアート・ラッセル教授もその一人である。

彼は現時点で既に「人間の標的を特定できる人工知能を搭載した殺人マシンがもたらすリスクが非常に大きいため、それらを禁止すべき」と考え、次のように述べている。

「近距離で人を殺すには、約3gの爆発物があれば十分です。もしAIを搭載した殺傷能力のある兵器が出来たとしても、10数センチ程度のクワッドコプター程度で充分です。もし充分な数の致死性の武器を収納したコンテナ等を掌握できたと仮定して、それらをすべて一度に送り込んで制御しながら人々を次々と殺傷することも可能なのです」




この談話は先月行われたラッセル教授の講演会にて語られたもので、彼は「ある朝に起きたらノートパソコンに殺されるんじゃないかと思うような恐怖ではなく、将来のことを考えるためにもちょっとした警戒心があったほうがいいと思うんです」と、BBCのテクノロジー特派員のローリー・セラン・ジョーンズ氏に語っている。

また、ラッセル教授は軍事関連でのAIの導入について「これは本当に重要で、本当に緊急なことだと思います。なぜ緊急なのかというと、ここ6年か7年の間に私たちが話してきた兵器が今、急速に製造・販売され始めているからです」と警鐘を鳴らす。

アメリカ国防総省はAIに多額の投資を行っているが、同社の兵器には必ず人間が発射プロセスに参加すると述べている。それでもAIの進歩によって、人類を超えた判断をAIが行ってしまうかもしれない。

技術の進歩と脅威は常に表裏一体であることを念頭に置いて考えるべきなのではないだろうか。

人工知能の危険性-AIリスクに関するスチュアートラッセル

(加藤史紀 山口敏太郎タートルカンパニー ミステリーニュースステーションATLAS編集部)

画像©Computerizer PIXABAY

 

関連記事

最近の投稿

ページ上部へ戻る