イーサリアムの共同創設者であるヴィタリック・ブテリン氏は、OpenAIのChatGPTに関連する潜在的なセキュリティリスクについて懸念を表明しています。これにより、個人のユーザーデータが漏洩する可能性があります。
ChatGPTが最近アップデートされたことを受けて、ソフトウェアエンジニアの宮村栄斗は、個人ユーザーデータに対する重大な脅威を特定しました。
宮村氏は X への投稿で、更新された AI ボットがユーザーの Gmail、Google カレンダー、SharePoint などのサービスにアクセスできるようになったため、プライベートメールのデータ漏洩のリスクが生じていることを伝えました。
チームは、これらのプラットフォームからユーザーの個人データをどのように抽出できるかを示す実験を通じて、この脅威を実証しました。
これを受けて、ブテリンは「AI ガバナンス」という考えを「ナイーブ」だと一蹴した。AI が寄付金の分配に使われれば、サイバー犯罪者がそれを悪用してユーザーの資金を吸い上げてしまう可能性があると警告しました。
また読む:イーロン・マスクのXAiが元従業員を襲い、企業秘密を主張する訴訟がOpenAIで起こった
ブテリンは代替の「情報金融」アプローチを提案した。これは、AI モデルがセキュリティチェックを受けやすいシステムだ。このシステムによってモデルの公開が促進され、その後、人間の陪審員によるスポットチェックの仕組みが採用されることになる。
セキュリティ警告に対するブテリンの回答は、AIガバナンスと個人データプラットフォームへのAI統合に関連する潜在的なリスクをめぐる議論が続いていることを浮き彫りにしている。
彼が提案した「情報金融」アプローチは、このようなリスクを軽減できる可能性のある、よりオープンで参加型のAIセキュリティモデルへの移行を示唆している。
この事件は、急速に進化する人工知能分野における強固なセキュリティ対策の重要性を浮き彫りにしている。
次を読む
Sam Altmanは、ChatGPTの名声が高まっているにもかかわらず盲目的に信頼しないようにユーザーに警告し、「AIは幻覚を起こす。あまり信用しないテクノロジーのはずだ」
画像:シャッターストック/アレクセイ・スミシュリャエフ