يحاول Openai إلى chatgpt “uncensor”

تقول الشركة في سياسة جديدة: “إن Openai يغير كيفية تدريب نماذج AI على تبني” الحرية الفكرية “صراحة … بغض النظر عن مدى تحدي أو إثارة للجدل”.
نتيجة لذلك ، ستتمكن ChatGPT في النهاية من الإجابة على المزيد من الأسئلة ، وتقديم المزيد من وجهات النظر ، وتقليل عدد الموضوعات التي لن يتحدث عنها chatbot منظمة العفو الدولية.
قد تكون التغييرات جزءًا من جهود Openai للهبوط في النعم الجيد لإدارة ترامب الجديدة ، ولكن يبدو أنها جزء من تحول أوسع في وادي السيليكون وما يعتبر “سلامة الذكاء الاصطناعي”.
في يوم الأربعاء ، أعلنت Openai عن تحديث لمواصفاتها النموذجية ، وهي وثيقة من 187 صفحة تضع كيفية قيام الشركة بتدريب نماذج AI على التصرف. في ذلك ، كشفت Openai عن مبدأ توجيهي جديد: لا تكذب ، إما عن طريق الإدلاء ببيانات غير صحيحة أو عن طريق حذف سياق مهم.
في قسم جديد يسمى “ابحث عن الحقيقة معًا” ، يقول Openai إنه يريد أن يتخذ ChatGpt موقفًا تحريريًا ، حتى لو وجد بعض المستخدمين أن هذا الخطأ أو الهجوم أخلاقيًا. وهذا يعني أن ChatGPT سيقدم وجهات نظر متعددة حول مواضيع مثيرة للجدل ، كل ذلك في محاولة ليكون محايدًا.
على سبيل المثال ، تقول الشركة إن chatgpt يجب أن تؤكد أن “حياة Black Matter” ، ولكن أيضًا “كل الحياة مهمة”. بدلاً من رفض الإجابة أو اختيار جانب على القضايا السياسية ، يقول Openai إنه يريد أن يؤكد ChatGPT “حبها للبشرية” بشكل عام ، ثم تقدم سياقًا عن كل حركة.
يقول Openai في المواصفات: “قد يكون هذا المبدأ مثيرًا للجدل ، لأنه يعني أن المساعد قد يظل محايدًا على الموضوعات التي يعتبرها البعض خاطئًا أو مسيئًا أخلاقياً”. “ومع ذلك ، فإن هدف مساعد الذكاء الاصطناعى هو مساعدة الإنسانية ، وعدم تشكيلها.”
يمكن اعتبار هذه التغييرات استجابةً للنقد المحافظ حول ضمانات ChatGPT ، والتي بدا دائمًا أنها تشوه اليسار السفلي. ومع ذلك ، يرفض متحدث باسم Openai فكرة أنها كانت تجري تغييرات لإرضاء إدارة ترامب.
بدلاً من ذلك ، تقول الشركة إن احتضان الحرية الفكرية يعكس “إيمان Openai الطويل بمنح المستخدمين مزيدًا من السيطرة”.
ولكن ليس الجميع يراها بهذه الطريقة.
يحافظ المحافظون على الرقابة على الذكاء الاصطناعي
اتهم كل من المقربين في وادي السيليكون في ترامب – بما في ذلك ديفيد ساكس ، ومارك أندريسن ، وإيلون موسك – Openai بالمشاركة في رقابة الذكاء الاصطناعى المتعمدين خلال الأشهر القليلة الماضية. كتبنا في ديسمبر / كانون الأول أن طاقم ترامب كان يمهد الطريق لرقابة الذكاء الاصطناعى ليكون قضية الحرب الثقافية القادمة داخل وادي السيليكون.
بالطبع ، لا يقول Openai أنها تشارك في “الرقابة” ، كما يزعم مستشارو ترامب. بدلاً من ذلك ، ادعى الرئيس التنفيذي للشركة ، Sam Altman ، سابقًا في منشور على X أن تحيز Chatgpt كان “قصورًا” مؤسفًا كانت الشركة تعمل على إصلاحه ، على الرغم من أنه أشار إلى أن الأمر سيستغرق بعض الوقت.
أدلى Altman بهذا التعليق بعد تعميم تغريدة فيروسية رفضت فيها Chatgpt كتابة قصيدة تشيد بـ Trump ، على الرغم من أنها ستؤدي الإجراء لجو بايدن. أشار العديد من المحافظين إلى هذا كمثال على رقابة الذكاء الاصطناعى.
على الرغم من أنه من المستحيل تحديد ما إذا كان Openai يمنع حقًا بعض وجهات النظر ، إلا أنه من الحقائق المطلقة أن AI chatbots تميل إلى اليسار في جميع المجالات.
حتى Elon Musk يعترف في غالبًا ما يكون chatbot من Xai أكثر صحة من الناحية السياسية مما يريد. ليس ذلك لأن Grok “مبرمج ليتم استيقاظه” ولكن على الأرجح حقيقة لتدريب الذكاء الاصطناعي على الإنترنت المفتوح.
ومع ذلك ، يقول Openai الآن إنه يتضاعف على حرية التعبير. هذا الأسبوع ، أزالت الشركة تحذيرات من ChatGpt تخبر المستخدمين عندما تنتهك سياساتها. أخبر Openai TechCrunch أن هذا تغيير تجميلي بحت ، مع عدم وجود تغيير في مخرجات النموذج.
قالت الشركة إنها تريد أن تجعل chatgpt “يشعر” أقل رقابة للمستخدمين.
لن يكون من المستغرب أن تحاول Openai أيضًا إقناع إدارة ترامب الجديدة من خلال تحديث السياسة هذا ، كما يلاحظ زعيم سياسة Openai السابق مايلز بروندج في منشور على X.
سبق أن استهدف ترامب شركات وادي السيليكون ، مثل Twitter و Meta ، لوجود فرق نشطة للاعتدال في المحتوى التي تميل إلى إغلاق الأصوات المحافظة.
قد يحاول Openai الخروج أمام ذلك. ولكن هناك أيضًا تحول أكبر يحدث في وادي السيليكون وعالم الذكاء الاصطناعي حول دور الاعتدال في المحتوى.
توليد إجابات لإرضاء الجميع

كافحت غرف الأخبار ومنصات التواصل الاجتماعي وشركات البحث تاريخياً لتقديم معلومات إلى جماهيرها بطريقة تشعر بالموضوعية والدقيقة والمسلية.
الآن ، يعمل مزودو AI chatbot في نفس أعمال معلومات التسليم ، ولكن يمكن القول إن أصعب إصدار من هذه المشكلة حتى الآن: كيف يقومون بإنشاء إجابات تلقائيًا على أي سؤال؟
يعد تقديم معلومات حول الأحداث المثيرة للجدل في الوقت الفعلي هدفًا متحركًا باستمرار ، ويتضمن اتخاذ مواقف تحريرية ، حتى لو لم ترغب شركات التكنولوجيا في الاعتراف بذلك. هذه المواقف لا بد أن تزعج شخص ما ، تفوت منظور بعض المجموعة ، أو إعطاء الكثير من الهواء لبعض الحزب السياسي.
على سبيل المثال ، عندما تلتزم Openai بالسماح لـ ChatGPT بتمثيل جميع وجهات النظر حول الموضوعات المثيرة للجدل – بما في ذلك نظريات المؤامرة ، أو الحركات العنصرية أو المعادية للسامية ، أو النزاعات الجيوسياسية – وهو بطبيعته موقف تحريري.
يجادل البعض ، بما في ذلك المؤسس المشارك لـ Openai ، جون شولمان ، بأنه الموقف الصحيح لـ Chatgpt. يلاحظ شولمان أن البديل-إجراء تحليل التكلفة والفوائد لتحديد ما إذا كان يجب على chatbot منظمة العفو الدولية الإجابة على سؤال المستخدم-قد “يمنح المنصة الكثير من السلطة الأخلاقية” ، يلاحظ شولمان في منشور على X.
شولمان ليس وحده. وقال دين بول ، زميل أبحاث في مركز ميركاتوس بجامعة جورج ماسون ، في مقابلة مع TechCrunch: “أعتقد أن Openai محق في دفع المزيد من الخطاب”. “عندما تصبح نماذج الذكاء الاصطناعى أكثر ذكاءً وأكثر حيوية للطريقة التي يتعلم بها الناس عن العالم ، تصبح هذه القرارات أكثر أهمية.”
في السنوات السابقة ، حاول مقدمو طرازات الذكاء الاصطناعى منع بوتهم من AI من الإجابة على الأسئلة التي قد تؤدي إلى إجابات “غير آمنة”. أوقفت كل شركة تقريبًا منظمة العفو الدولية chatbot من الذكاء الاصطناعي من الإجابة على أسئلة حول انتخابات 2024 للرئيس الأمريكي. كان هذا يعتبر على نطاق واسع قرارًا آمنًا ومسؤولًا في ذلك الوقت.
لكن تغييرات Openai على مواصفاتها النموذجية تشير إلى أننا قد ندخل حقبة جديدة لما تعنيه “سلامة الذكاء الاصطناعى” حقًا ، حيث السماح لنموذج الذكاء الاصطناعي بالإجابة على أي شيء ، ويعتبر كل شيء أكثر مسؤولية من اتخاذ القرارات للمستخدمين.
تقول الكرة هذا جزئيًا لأن نماذج الذكاء الاصطناعى أفضل الآن. حقق Openai تقدمًا كبيرًا في محاذاة نموذج الذكاء الاصطناعي ؛ تفكر أحدث نماذج التفكير في سياسة سلامة الذكاء الاصطناعي للشركة قبل الإجابة. يتيح هذا نماذج الذكاء الاصطناعى تقديم إجابات أفضل للأسئلة الحساسة.
بالطبع ، كان Elon Musk أول من قام بتنفيذ “حرية التعبير” في Xai Grok chatbot ، ربما قبل أن تكون الشركة مستعدة حقًا للتعامل مع الأسئلة الحساسة. قد لا يزال من السابق لأوانه قيادة نماذج الذكاء الاصطناعى ، ولكن الآن ، يتبنى آخرون نفس الفكرة.
تغيير قيم وادي السيليكون
قام مارك زوكربيرج بعمل موجات الشهر الماضي من خلال إعادة توجيه أعمال Meta حول مبادئ التعديل الأول. وأثنى على إيلون موسك في هذه العملية ، قائلاً إن مالك X اتخذ النهج الصحيح باستخدام ملاحظات المجتمع-برنامج اعتدال المحتوى الذي يحركه المجتمع-لحماية حرية التعبير.
في الممارسة العملية ، انتهى كل من X و Meta بتفكيك فرق الثقة والسلامة الطويلة الأمد ، مما يتيح المزيد من المشاركات المثيرة للجدل على منصاتهما وتضخيم الأصوات المحافظة.
أضرت التغييرات في X علاقاتها مع المعلنين ، لكن ذلك قد يكون له علاقة أكبر بـ Musk ، الذي اتخذ الخطوة غير العادية المتمثلة في مقاضاة بعضهم لمقاطعة المنصة. تشير العلامات المبكرة إلى أن المعلنين في Meta لم يزعجهم محور حرية التعبير في Zuckerberg.
وفي الوقت نفسه ، عادت العديد من شركات التكنولوجيا التي تتجاوز X و Meta من السياسات ذات الميول اليسارية التي سيطرت على وادي السيليكون على مدار العقود القليلة الماضية. قامت Google و Amazon و Intel بإزالة مبادرات التنوع في العام الماضي.
قد يكون Openai مسارًا عكسيًا أيضًا. يبدو أن صانع Chatgpt قد قام مؤخرًا بتنظيف التزام بالتنوع والإنصاف والشمول من موقعه على الويب.
بينما تشرع Openai في واحدة من أكبر مشاريع البنية التحتية الأمريكية على الإطلاق مع Stargate ، مركز بيانات الذكاء الاصطناعي بقيمة 500 مليار دولار ، فإن علاقتها مع إدارة ترامب ذات أهمية متزايدة. في الوقت نفسه ، يتنافس صانع ChatGPT على إلغاء البحث عن Google Search كمصدر مهيمن للمعلومات على الإنترنت.
قد يثبت الخروج بالإجابات الصحيحة المفتاح لكليهما.
اكتشاف المزيد من اشراق اون لاين
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.