تقدم OpenAI نموذج الاستدلال o1 الخاص بها إلى واجهة برمجة التطبيقات (API) الخاصة بها – لبعض المطورين
تعمل OpenAI على جلب o1، نموذج الذكاء الاصطناعي “المنطقي” الخاص بها، إلى واجهة برمجة التطبيقات الخاصة بها – ولكن فقط لمطورين محددين للبدء.
وقالت الشركة إنه اعتبارًا من يوم الثلاثاء، ستبدأ خدمة o1 في طرحها للمطورين في فئة الاستخدام “المستوى 5” في OpenAI. للتأهل للمستوى 5، يجب على المطورين إنفاق 1000 دولار على الأقل مع OpenAI وأن يكون لديهم حساب مضى عليه أكثر من 30 يومًا منذ أول دفعة ناجحة لهم.
يستبدل O1 نموذج معاينة o1 الذي كان متاحًا بالفعل في واجهة برمجة التطبيقات.
على عكس معظم أنظمة الذكاء الاصطناعي، فإن نماذج الاستدلال مثل o1 تتحقق من الحقائق بشكل فعال، مما يساعدها على تجنب بعض المخاطر التي عادة ما تعوق النماذج. وكعيب، غالبًا ما يستغرقون وقتًا أطول للتوصل إلى الحلول.
كما أنها باهظة الثمن للغاية، ويرجع ذلك جزئيًا إلى أنها تتطلب الكثير من موارد الحوسبة لتشغيلها. يتقاضى OpenAI 15 دولارًا أمريكيًا مقابل كل 750000 كلمة تقريبًا o1 تحليلًا و60 دولارًا أمريكيًا لكل 750000 كلمة تقريبًا ينشئها النموذج. وهذا يعادل 6 أضعاف تكلفة أحدث نموذج “غير منطقي” من OpenAI، وهو GPT-4o.
يعد O1 في OpenAI API أكثر قابلية للتخصيص بكثير من معاينة o1، وذلك بفضل الميزات الجديدة مثل استدعاء الوظائف (الذي يسمح للنموذج بالاتصال بالبيانات الخارجية)، ورسائل المطورين (التي تتيح للمطورين إرشاد النموذج على النغمة والأسلوب)، و تحليل الصورة. بالإضافة إلى المخرجات المنظمة، يحتوي o1 أيضًا على معلمة واجهة برمجة التطبيقات، “reasoning_effort”، التي تتيح التحكم في مدة “تفكير” النموذج قبل الاستجابة للاستعلام.
قالت OpenAI إن إصدار o1 في واجهة برمجة التطبيقات – وقريبًا منصة الدردشة الآلية الخاصة بالشركة، ChatGPT – هو إصدار “جديد بعد التدريب” من o1. بالمقارنة مع نموذج o1 الذي تم إصداره في ChatGPT قبل أسبوعين، فإن هذا النموذج، “o1-2024-12-17″، يحسن “مجالات سلوك النموذج بناءً على التعليقات”، كما قال OpenAI بشكل غامض.
وكتبت الشركة في منشور بالمدونة: “نحن نعمل على طرح الوصول بشكل تدريجي بينما نعمل على توسيع الوصول إلى مستويات الاستخدام الإضافية وزيادة حدود المعدل”.
وفي مذكرة على موقعها الإلكتروني، قالت OpenAI إن الإصدار الأحدث o1 يجب أن يقدم “إجابات أكثر شمولاً ودقة”، خاصة بالنسبة للأسئلة المتعلقة بالبرمجة والأعمال، ومن غير المرجح أن يرفض الطلبات بشكل غير صحيح.
في أخبار أخرى متعلقة بالتطوير يوم الثلاثاء، أعلنت OpenAI عن إصدارات جديدة من نماذجها المصغرة GPT-4o وGPT-4o كجزء من Realtime API، وهي واجهة برمجة تطبيقات OpenAI لبناء تطبيقات ذات زمن وصول منخفض واستجابات صوتية مولدة بالذكاء الاصطناعي. النماذج الجديدة (“gpt-4o-realtime-preview-2024-12-17″ و”gpt-4o-mini-realtime-preview-2024-12-17”)، التي تتميز بتحسين كفاءة وموثوقية البيانات، هي أيضًا أرخص وقال OpenAI للاستخدام.
عند الحديث عن Realtime API (لا أقصد التورية)، فهي تظل في مرحلة تجريبية، ولكنها اكتسبت العديد من الإمكانات الجديدة، مثل الاستجابات المتزامنة خارج النطاق، والتي تتيح تشغيل مهام الخلفية مثل الإشراف على المحتوى دون مقاطعة التفاعلات. تدعم واجهة برمجة التطبيقات (API) الآن أيضًا WebRTC، وهو المعيار المفتوح لإنشاء تطبيقات صوتية في الوقت الفعلي للعملاء المعتمدين على المتصفح، والهواتف الذكية، وأجهزة إنترنت الأشياء.
في ما ليس من قبيل الصدفة بالتأكيد، قامت شركة OpenAI بتعيين منشئ WebRTC، جاستن أوبرتي، في أوائل ديسمبر.
“تم تصميم تكامل WebRTC الخاص بنا لتمكين التفاعلات السلسة والمستجيبة في ظروف العالم الحقيقي، حتى مع جودة الشبكة المتغيرة”، كتب OpenAI في المدونة. “إنه يتعامل مع تشفير الصوت والبث وقمع الضوضاء والتحكم في الازدحام.”
في آخر تحديث لها يوم الثلاثاء، جلبت OpenAI ضبطًا دقيقًا للتفضيلات إلى واجهة برمجة التطبيقات (API) الخاصة بها؛ يقارن ضبط التفضيلات أزواجًا من استجابات النموذج من أجل “تعليم” النموذج للتمييز بين الإجابات المفضلة و”غير المفضلة” على الأسئلة. وأطلقت الشركة إصدارًا تجريبيًا “للوصول المبكر” لمجموعات مطوري البرامج الرسمية في Go وJava.
اكتشاف المزيد من اشراق اون لاين
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.