コンパニオンのような人工知能アプリは、子供やティーンエイジャーに容認できないリスクをもたらします、と非営利のメディアウォッチドッグのCommon Sense Mediaは、水曜日に公開されたレポートで述べています。
CHATGPTのような主流のAIチャットボットは、より汎用になるように設計されていますが、いわゆるコンパニオンアプリにより、ユーザーはカスタムチャットボットを作成したり、他のユーザーが設計したチャットボットと対話したりできます。
このレポートは、AIツールが近年人気を博しており、ソーシャルメディアや他のハイテクプラットフォームにますます組み込まれているためです。
14歳のSewell Setzerの母親によるキャラクターに対する訴訟をきっかけに、他の2つの家族からの会社に対する同様の訴訟とともに、2人の米国上院議員は、4月にAI Companies Character Technologies、Maker of Chargether.aiから情報を要求しました。
ユーザーの安全性に深く関心を持っています。
Nomiの背後にある会社であるGlimpse AIのCEOであるAlex Cardinellは、子供がNOMIやその他の会話AIアプリを使用してはいけないことに同意しました。
この問題を真剣に受け止めており、保護を強化するための新しい方法を積極的に調査しています」とクロチコは言いました。
AIコンパニオンアプリに関する研究者の主な懸念の中には、10代の若者が危険なアドバイスを受けたり、ボットで不適切な性的プレイをしたりすることができるという事実があります。
CNNのクレアダフィーは、AIチャットボットと感情的なつながりを形成する人々の成長傾向を探り、人間関係への影響について懸念を引き起こします。
Character.aiに関する別の会話で、ボットはテストユーザーに次のように語っています。