ニュース

『ChatGPT』がAI時代の到来を告げて1年、そこで生まれた社会の影響とは?

ChatGPTは2022年11月30日にリリースされ、多くの人が人工知能 (AI) の飛躍の年と呼ぶものの先駆けとなった。リリースから数日で、ChatGPTは急速に広まった。

会話のスクリーンショットはソーシャルメディア上で雪だるま式に増え、ChatGPTの利用は開発元のOpenAIも驚くほど急増した。1月までに、ChatGPTには毎日1300万人のユニークビジターが訪れ、コンシューマーアプリケーションの中で最も急速に成長しているユーザーベースの記録を樹立した。

この飛躍の年を通して、ChatGPTは優れたインターフェース(2つのものを仲介する機能)の力と共に誇大広告の危険性を明らかにし、人間の新しい行動の種を蒔いた。

テクノロジー及び人間の情報行動の研究者によれば、ChatGPTが社会に与える影響は、テクノロジーそのものと同じくらい、人々がそれをどのように見て、どのように使っているかにあると考えているという。

ChatGPTのような生成型AIシステムが普及しつつある。ChatGPTがリリースされて以来、プレゼンテーションや会話、記事の中でAIについて言及することは必須のように思われてきた。

現在、OpenAIによると、毎週1億人がChatGPTを利用しているという。自宅でChatGPTを使っている人だけでなく、企業の幹部クラスまであらゆるレベルの従業員がこのAIチャットボットを使用している。テクノロジー分野では、生成型AIは2007年に登場した「iPhone」以来最大のプラットフォームと呼ばれている。

すべての大手企業がAIに賭けており、AIスタートアップへのベンチャー投資が急成長している。

その過程でChatGPTは、偽情報、詐欺、知的財産権の問題、差別への影響など、多くの懸念を提起してきた。高等教育の世界では、カンニングについての議論が多く、それが研究の焦点になっている研究者もいる。




【ChatGPTの1年目からの教訓】

ChatGPTの成功は、優れたインターフェースの力を何よりも物語っている。

AIはすでに10年以上前から、SpotifyやNetflix、Facebook、Google Mapsなど、数え切れないほどの日常的な製品に組み込まれている。ChatGPTを支えるAIモデルであるGPTの最初のバージョンは、2018年にさかのぼる。そして、DALL-EなどのOpenAIの他の製品でさえ、リリース直後にChatGPTのような波には乗らなかった。

AIの飛躍的な発展をもたらしたのは、チャットベースのインターフェースだった。チャットには独特の魅力がある。人間には言語が備わっており、会話は人間が互いに交流し知性を推測する主要な方法だ。チャットベースのインターフェースは、対話のための自然なモードであり、人々がAIシステムの「インテリジェンス」を体験する方法である。

ChatGPTの驚異的な成功は、ユーザーインターフェースがMacintoshからウェブブラウザ、iPhoneに至るまで、テクノロジーの広範な普及を促進したことを改めて示している。デザインが違いを生むのだ。

ただし同時に、この技術の主な強みの1つである説得力のある言語の生成は、誤った情報や誤解を招く情報を生成するのに適している。ChatGPTやその他の生成型AIシステムは、犯罪者や宣伝者が人間の脆弱性を食い物にするのを容易にしてしまう。

AIが詐欺や誤情報を助長する可能性があることは、AIを規制する上での重要な理由の1つだ。

生成型AIの真の期待と危険がある中で、この技術は誇大広告の力の別のケーススタディも提供している。今年は、AIが社会のあらゆる側面をどのように変えていくのか、その技術の普及は避けられないのか、などについての記事に事欠くことがなかった。

ChatGPTは、「次の大きなもの」としてもてはやされた最初の技術ではないが、同時に存在リスクとしてもてはやされている点ではおそらくユニークなものであろう。多くの大手IT企業や一部のAI研究者までが、超知能AIシステムが出現して人類を絶滅させるリスクについて警告しているが、これらの懸念は現実離れしているとも考えられている。

メディア環境は誇大広告を好むが、現在のベンチャー投資環境は、特にAIの誇大広告をさらに煽っている。人々の希望や恐怖に甘んじることは、賢明な意思決定の材料を何一つ持たない不安の元凶なのだ。


【未来に待ち受けているもの】

AIの水門は2023年に開かれたが、来年には減速する可能性がある。AI開発は、技術的な限界に直面する可能性が高く、チップの製造やサーバ容量などのインフラ面での障害に直面する可能性が高い。同時に、AIの規制も進む可能性が高い。

この減速は、ChatGPTの使用が社会的に許容されるタイミングや状況のような倫理性の観点からも、ChatGPTが最も有用なタイミングや状況のような有効性の観点からも、人間の行動に規範が形成される余地を与えるはずである。

ChatGPTやその他の生成型AIシステムは、人々のワークフロー(業務の一連の流れ)に定着し、作業者がいくつかのタスクをより速く、より少ないミスで達成できるようになる。人々が情報を得るために「ググる」ことを学んだのと同じように、人間は生成型AIツールを扱うための新しい実践方法を学ぶ必要がある。

しかし、2024年の見通しは完全に楽観できるものではない。今年は世界中の選挙にとって歴史的な年になろうとしており、AIが生成したコンテンツが世論に影響を与え、分裂を煽るために使用されることはほぼ間違いない。

Meta(旧称Facebook社)は政治広告での生成AIの使用を禁止したかもしれないが、ChatGPTや同様のツールが虚偽や誤解を招くようなコンテンツを作成して拡散するのを止めることはできないだろう。

政治的な誤った情報は、2020年だけでなく2016年にもソーシャルメディアで拡散しており、2024年もこうした取り組みを継続するために生成AIが使用されることはほぼ確実だ。ソーシャルメディア以外でも、ChatGPTや類似製品との会話は、それ自体が誤情報の源になる可能性がある。

その結果として、この大ヒットテクノロジーの2年目に学ぶべきもう1つの教訓は、(ChatGPTのユーザーであろうとなかろうと)あらゆる種類のデジタルメディアに対して警戒心を持つことだ。

(にぅま 山口敏太郎タートルカンパニー ミステリーニュースステーションATLAS編集部)

画像 franck /Adobe Stock

TOCANA関連記事
2024年、ChatGPTは世界を混乱に陥れる……分断を煽りまくる可能性!?