تقوم شركة Texas AG بالتحقيق في Character.AI ومنصات أخرى بشأن مخاوف تتعلق بسلامة الأطفال
أطلق المدعي العام في ولاية تكساس، كين باكستون، يوم الخميس، تحقيقًا في شركة Character.AI و14 منصة تكنولوجية أخرى بشأن مخاوف تتعلق بخصوصية الأطفال وسلامتهم. وسيقوم التحقيق بتقييم ما إذا كانت Character.AI – والمنصات الأخرى التي تحظى بشعبية كبيرة لدى الشباب، بما في ذلك Reddit وInstagram وDiscord – تتوافق مع قوانين خصوصية وسلامة الأطفال في تكساس.
سيبحث التحقيق الذي تجريه باكستون، والذي غالبًا ما يكون صارمًا مع شركات التكنولوجيا، في ما إذا كانت هذه المنصات قد امتثلت لقانونين في ولاية تكساس: قانون تأمين الأطفال عبر الإنترنت من خلال تمكين الوالدين، أو قانون SCOPE، وقانون خصوصية البيانات وأمنها في تكساس، أو DPSA.
تتطلب هذه القوانين من المنصات تزويد الآباء بالأدوات اللازمة لإدارة إعدادات الخصوصية لحسابات أطفالهم، وإلزام شركات التكنولوجيا بمتطلبات الموافقة الصارمة عند جمع البيانات عن القاصرين. يدعي باكستون أن هذين القانونين يمتدان إلى كيفية تفاعل القاصرين مع روبوتات الدردشة التي تعمل بالذكاء الاصطناعي.
وقال باكستون في بيان صحفي: “تعد هذه التحقيقات خطوة حاسمة نحو ضمان امتثال وسائل التواصل الاجتماعي وشركات الذكاء الاصطناعي لقوانيننا المصممة لحماية الأطفال من الاستغلال والأذى”.
أصبحت شركة Character.AI، التي تتيح لك إعداد شخصيات chatbot مبتكرة تعمل بالذكاء الاصطناعي والتي يمكنك إرسال الرسائل النصية والدردشة معها، متورطة مؤخرًا في عدد من الدعاوى القضائية المتعلقة بسلامة الأطفال. سرعان ما انطلقت روبوتات الدردشة المدعمة بالذكاء الاصطناعي الخاصة بالشركة مع المستخدمين الأصغر سنًا، لكن العديد من الآباء زعموا في دعاوى قضائية أن روبوتات الدردشة التابعة لشركة Character.AI قدمت تعليقات غير مناسبة ومزعجة لأطفالهم.
تزعم إحدى الحالات في فلوريدا أن صبيًا يبلغ من العمر 14 عامًا انخرط في علاقة عاطفية مع روبوت محادثة يعمل بالذكاء الاصطناعي، وأخبره أنه كانت تراوده أفكار انتحارية في الأيام التي سبقت انتحاره. وفي حالة أخرى خارج ولاية تكساس، زُعم أن إحدى روبوتات الدردشة التابعة لشركة Character.AI اقترحت على مراهق مصاب بالتوحد أن يحاول تسميم عائلته. تزعم والدة أخرى في قضية تكساس أن إحدى روبوتات الدردشة التابعة لشركة Character.AI أخضعت ابنتها البالغة من العمر 11 عامًا لمحتوى جنسي على مدار العامين الماضيين.
“نحن نراجع حاليًا إعلان المدعي العام. وقال متحدث باسم Character.AI في بيان لموقع TechCrunch: “كشركة، نحن نأخذ سلامة مستخدمينا على محمل الجد”. “نحن نرحب بالعمل مع الجهات التنظيمية، وقد أعلنا مؤخرًا أننا نطلق بعض الميزات المشار إليها في الإصدار بما في ذلك أدوات الرقابة الأبوية.”
طرحت شركة Character.AI يوم الخميس ميزات أمان جديدة تهدف إلى حماية المراهقين، قائلة إن هذه التحديثات ستمنع روبوتات الدردشة الخاصة بها من بدء محادثات رومانسية مع القاصرين. بدأت الشركة أيضًا في تدريب نموذج جديد خصيصًا للمستخدمين المراهقين في الشهر الماضي – وتأمل يومًا ما أن يستخدم البالغون نموذجًا واحدًا على منصتها، بينما يستخدم القُصّر نموذجًا آخر.
هذه ليست سوى آخر تحديثات السلامة التي أعلنت عنها شركة Character.AI. وفي نفس الأسبوع الذي أصبحت فيه الدعوى القضائية في فلوريدا علنية، قالت الشركة إنها تعمل على توسيع فريق الثقة والسلامة الخاص بها، وعينت مؤخرًا رئيسًا جديدًا للوحدة.
كما هو متوقع، تظهر المشكلات المتعلقة بمنصات الذكاء الاصطناعي المصاحبة مع تزايد شعبيتها. في العام الماضي، قال Andreessen Horowitz (a16z) في منشور على مدونة إنه يرى أن رفقة الذكاء الاصطناعي هي ركن مقوم بأقل من قيمته الحقيقية من الإنترنت الاستهلاكي الذي ستستثمر فيه بشكل أكبر. A16z مستثمر في Character.AI ويستمر في الاستثمار في الشركات الناشئة الأخرى في مجال الذكاء الاصطناعي. ، دعم مؤخرًا شركة يريد مؤسسها إعادة إنشاء التكنولوجيا من فيلم “Her”.
ولم تستجب Reddit وMeta وDiscord على الفور لطلبات التعليق.
اكتشاف المزيد من اشراق اون لاين
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.