Openai يكشف عن وكيل ChatGpt جديد لـ “البحث العميق”
يعلن Openai عن “وكيل” جديد من الذكاء الاصطناعي المصمم لمساعدة الأشخاص على إجراء أبحاث معقدة ومتعمقة باستخدام ChatGPT ، منصة chatbot التي تعمل بالنيابة عن الذكاء الاصطناعي.
بشكل مناسب بما فيه الكفاية ، يطلق عليه البحث العميق.
قال Openai في منشور مدونة تم نشره يوم الأحد إن هذه القدرة الجديدة تم تصميمها لـ “الأشخاص الذين يقومون بعمل معارف مكثف في مجالات مثل التمويل والعلوم والسياسة والهندسة ويحتاجون إلى بحث شامل ودقيق وموثوق.” وأضافت الشركة أن الشركة قد تكون مفيدة أيضًا لأي شخص يقوم “بمشتريات تتطلب عادةً بحثًا دقيقًا ، مثل السيارات والأجهزة والأثاث”.
في الأساس ، يهدف ChatGPT Deep Research إلى الحالات التي لا تريد فيها فقط إجابة أو ملخصًا سريعًا ، ولكن بدلاً من ذلك تحتاج إلى التفكير بجد في المعلومات من مواقع ويب متعددة ومصادر أخرى.
قال Openai إنه يتيح بحثًا عميقًا لمستخدمي ChatGpt Pro اليوم ، يقتصر على 100 استعلامات شهريًا ، مع دعم مستخدمي Plus ومستخدمي الفريق بعد ذلك ، يليه Enterprise. (إن Openai يستهدف عرضًا زائد في غضون شهر تقريبًا من الآن. لم يكن لدى Openai جدول زمني للإصدار لمشاركته لعملاء ChatGPT في المملكة المتحدة وسويسرا والمنطقة الاقتصادية الأوروبية.
لاستخدام Ratgpt Deep Research ، ستحدد فقط “بحث عميق” في الملحن ثم إدخال استعلام ، مع خيار إرفاق الملفات أو جداول البيانات. (إنها تجربة على شبكة الإنترنت فقط في الوقت الحالي ، مع تكامل تطبيقات الأجهزة المحمولة وسطح المكتب في وقت لاحق من هذا الشهر) .
حاليًا ، مخرجات ChatGpt Deep Research هي النص فقط. لكن Openai قال إنه يعتزم إضافة صور مضمنة وتصورات البيانات والمخرجات “التحليلية” الأخرى قريبًا. وأضاف Openai أنه على خريطة الطريق أيضًا القدرة على توصيل “مصادر البيانات الأكثر تخصصًا” ، بما في ذلك “القائمة على الاشتراك” والموارد الداخلية.
السؤال الكبير هو ، ما مدى دقة البحث العميق ChatGPT؟ الذكاء الاصطناعي غير كامل ، بعد كل شيء. إنه عرضة للهلوسة وأنواع أخرى من الأخطاء التي يمكن أن تكون ضارة بشكل خاص في سيناريو “البحث العميق”. ربما لهذا السبب قال Openai إن كل مخرجات بحث عميقة ChatGPT ستتم “توثيقها بالكامل ، مع استشهادات واضحة وملخص لـ [the] التفكير ، مما يجعل من السهل الرجوع والتحقق من المعلومات. “
هيئة المحلفين خارج ما إذا كانت هذه التخفيفات ستكون كافية لمكافحة أخطاء الذكاء الاصطناعي. ميزة البحث على شبكة الإنترنت التي تعمل بمنظمة العفو الدولية من Openai في ChatGpt ، و SchatGpt Search ، لا تصنع بشكل غير متكرر Gaffes ويعطي إجابات خاطئة على الأسئلة. وجد اختبار TechCrunch أن بحث ChatGPT قد أنتج نتائج أقل فائدة من البحث عن Google عن استعلامات معينة.
لتعزيز دقة الأبحاث العميقة ، تستخدم Openai نسخة خاصة من نموذج “التفكير” الذي تم الإعلان عنه مؤخرًا والذي تم تدريبه من خلال التعلم التعزيز على “المهام الحقيقية التي تتطلب استخدام المستعرض واستخدام أداة Python”. التعزيز التعلم بشكل أساسي “يعلم” نموذجًا عبر التجربة والخطأ لتحقيق هدف محدد. مع اقتراب النموذج من الهدف ، يتلقى “مكافآت” افتراضية ، مما يجعله أفضل في المهمة المضي قدمًا.
ادعى Openai أنه ، بفضل نموذج O3 الذي تم ضبطه ، يمكن للبحث العميق إجراء أبحاث متعددة الخطوات ، وتراجع ورد على المعلومات في الوقت الفعلي ، وإنشاء الرسوم البيانية ، واستشهد على وجه التحديد “مئات” المصادر والممرات.
“[This] نسخة من طراز Openai O3 القادم [is] وقال Openai في المدونة: “تم تحسينه لتصفح الويب وتحليل البيانات”. “[I]T يعزز التفكير للبحث وتفسير وتحليل كميات هائلة من النص والصور و PDFs على الإنترنت ، والتعبير حسب الحاجة ردود الفعل على المعلومات التي يواجهها […] يتمكن النموذج أيضًا من تصفح الملفات التي تم تحميلها على المستخدم ، والتخطيط والتكرار على الرسوم البيانية باستخدام أداة Python ، وتضمين كل من الرسوم البيانية التي تم إنشاؤها وصورًا من مواقع الويب في استجاباتها ، وتشير إلى جمل أو مقاطع محددة من مصادرها. “
قالت الشركة إنها اختبرت chatgpt Deep Research باستخدام امتحان Humanity الأخير ، وهو تقييم يتضمن أكثر من 3000 سؤال على مستوى الخبراء في مجموعة متنوعة من المجالات الأكاديمية. حقق نموذج O3 الذي يعمل على تشغيل الأبحاث العميقة دقة 26.6 ٪ ، والتي قد تبدو وكأنها درجة فاشلة – لكن امتحان الإنسانية الأخير تم تصميمه ليكون أكثر صرامة من المعايير الأخرى للبقاء قبل التطورات النموذجية. وفقًا لـ Openai ، جاء نموذج O3 Research O3 قبل التفكير في الجوزاء (6.2 ٪) ، و Grok-2 (3.8 ٪) ، و GPT-4O الخاص بـ Openai (3.3 ٪).
ومع ذلك ، يلاحظ Openai أن البحث العميق ChatGPT له قيود ، وأحيانًا يرتكب أخطاء واستنتاجات غير صحيحة. وقالت الشركة إن الأبحاث العميقة قد تكافح من أجل التمييز بين المعلومات الموثوقة عن الشائعات ، وغالبًا ما تفشل في النقل عندما يكون غير متأكد من شيء ما – ويمكن أن يرتكب أيضًا أخطاء التنسيق في التقارير والاستشهادات.
لأي شخص قلق بشأن تأثير الذكاء الاصطناعى التوليدي على الطلاب ، أو على أي شخص يحاول العثور على معلومات عبر الإنترنت ، فإن هذا النوع من الإخراج المتعمق والمعمق ربما يبدو أكثر جاذبية من ملخص chatbot بسيط للغاية بدون استشهادات. لكننا سنرى ما إذا كان معظم المستخدمين سيخضعون بالفعل للإخراج للتحليل الحقيقي والتحقق المزدوج ، أو إذا كانوا ببساطة يعاملونه كنص أكثر احترافية للنسخ.
وإذا كان كل هذا يبدو مألوفًا ، فقد أعلنت Google بالفعل عن ميزة AI مماثلة تحمل الاسم نفسه قبل أقل من شهرين.
اكتشاف المزيد من اشراق اون لاين
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.