Google の AI セキュリティ専門家が、AI チャットボットを使用する際にユーザーが個人データや仕事用データを保護する方法について、重要なアドバイスを共有しています。
「私たちユーザーは、サイバー犯罪者やデータブローカーなどの有害な存在が個人情報にアクセスできないように、個人情報を保護する必要があります。」
彼らは、社会保障番号、クレジットカード情報、自宅住所、または医療記録を、将来のモデルトレーニングのためにデータを保存する可能性のある公開AIツールと共有することは避けることを強調しました。
また、エンジニアは、機密の仕事上の会話にはエンタープライズグレードの AI ツールを使用することの重要性を強調しました。
「かつて、企業のGeminiチャットボットが私の正確な住所を教えてくれたことに驚きました」と彼らは言い、長期記憶機能が以前に共有していた情報をどのように保持できるかを説明しました。
リスクを最小限に抑えるために、チャット履歴を定期的に削除し、一時モードまたは「シークレット」モードを使用することを推奨しました。
最後に、利便性とセキュリティの両方を確保するために、よく知られたAIプラットフォームを使い続け、プライバシー設定を見直して、会話がトレーニングモデルに使用されないようにすることを勧めました。
関連項目:ロナルド・レーガンは「関税が好きではなかった」とエコノミストのポール・クルーグマンは言う。彼は「自由貿易の美徳」 を繰り返し強調した。
今年の初め、ジェネレーティブAIと大規模言語モデルが広く使用されるようになったため、プライバシーに関する懸念が急増しました。
Incogniのレポートによると、明確なプライバシーポリシーとオプトアウトオプションのおかげで、Mistral AIのLe Chatが最も安全で、ChatGPTとGrokがそれに続きました。
逆に、メタ・プラットフォームズ社 (NASDAQ: META) のメタAI、アルファベット社 (NASDAQ: GOOG) (NASDAQ: GOOGL) (NASDAQ: GOOGL) Gemini、およびマイクロソフト社のCopilot (NASDAQ: MSFT) は、データ収集において最も積極的であり、しばしば透明性に欠けていました。
モバイルアプリはこれらの傾向を反映しており、Le Chat、Pi AI、ChatGPTが最もリスクが低く、Meta AIはメールや位置情報などの機密データを収集しました。
ユーザーには、個人情報を保護するためにプライバシー設定を確認するようアドバイスしました。
次を読む:
免責事項:このコンテンツの一部は AI ツールの助けを借りて作成され、Benzinga の編集者によってレビューおよび公開されました。