近年進歩の目覚ましいAIは学習やビジネスの分野でも活用されるようになっている。だが、AI関連ツールを用いる人たちが皆善良な一般市民であるとは言いがたい。
海外の最新の調査によれば、詐欺師が人工知能ツールを使って人々を騙すために活用していることが明らかになった。
IT企業のSophosは、ChatGPTのような言語モデルAIは出会い系アプリを利用している人々を暗号通貨の投資詐欺等に誘うために活用されている可能性があると述べている。
この詐欺はCryptoRom詐欺と呼ばれ、暗号通貨の取引が可能になることを装った詐欺アプリをダウンロードするよう被害者に促すことで行われる。まるで詐欺師が被害者を太らせてから現金を搾り取ろうとすることから「豚の屠殺スキーム」と海外では呼ばれており、中国でも「屠畜板(sha zhu pan)」と呼ばれている。
タイムズ紙が報じたところによると、このような詐欺の被害者は、恋人や配偶者と別れたり死別した後で精神的に弱っている人が多いという。また、TSBの調査によれば、この種の詐欺の被害者は約半数は51歳から65歳だということが分かっている。
詐欺は心の隙間につけ込む事から始まると言うが、被害者を見つけ言葉巧みに詐欺に誘うメッセージ本文の作成にAIが用いられているという。Sophosの調査では、この詐欺に騙されかけた人は相手から送られてきたメッセージに「私には人間のような感情や情動はありませんが、あなたの助けになるよう、親切で前向きな答えを返すようにできています(※被害者に届いた元のメッセージは英文表記)」という一文があったことから相手がAIを用いていると分かり、詐欺に気づいたという。
タイムズ紙の取材に対し、Sophosのショーン・ギャラガー主任脅威研究員は次のように語っている。
「OpenAIがChatGPTのリリースを発表して以来、サイバー犯罪者が自分たちの活動にこのプログラムを使うのではないかという憶測が広がっていました。我々は、少なくとも勧誘から始まる詐欺ではAIを用いて被害者を誘い込むケースがあると言えます」
こういった詐欺の多くは英語を母国語としない人々によって行われているため、自然な会話を続けるためにAI言語ツールが使用されていると彼は考えている。
「ChatGPTを使うことで、より効率的で効果的な会話を続けることができ、犯人側も労力を減らし、より自分たちの誘い文句に対する信憑性を高め、信頼を得やすくすることができます。また、こういった文書作成を可能とするツール人間を活用することで、詐欺師は一度に複数の被害者を同時に対応することができます」とギャラガー氏は語る。
暗号通貨詐欺による被害は昨年72%増加した、とタイムズ誌は報じている。欧米での被害でこの数なのであるから、日本でも既に同様の事態が起きている可能性も極めて高い。人間らしい会話や文書作成のできるAIツールが増えてきているだけに、今後はこういった悪用されている可能性を考慮して対策していく必用があるのではないだろうか。
(加藤史紀 山口敏太郎タートルカンパニー ミステリーニュースステーションATLAS編集部)
画像 Suriyo / Adobe Stock