عزيزي الزائر أهلا وسهلا بك في - كورة نيوز نقدم لكم اليوم OpenAI تتعهد بنشر نتائج أمان نماذج الذكاء الاصطناعى دوريًا - كورة نيوز
في خطوة تهدف إلى تعزيز الشفافية، أعلنت شركة OpenAI عن التزامها بنشر نتائج تقييمات الأمان الداخلية لنماذج الذكاء الاصطناعي التى تطورها بشكل دوري.
وكشفت الشركة عن إطلاق منصة جديدة باسم “Safety Evaluations Hub”، وهي صفحة إلكترونية مخصصة لعرض أداء النماذج على اختبارات تتعلق بالمحتوى الضار، وعمليات الالتفاف على القيود (jailbreaks)، وظاهرة الهلاوس الرقمية.
Open AI
وأكدت OpenAI أن المنصة ستُحدَّث بشكل مستمر، بالتزامن مع كل تحديث كبير لنماذجها. وقالت في منشور على مدونتها الرسمية: “مع تطور علم تقييم الذكاء الاصطناعي، نسعى إلى مشاركة تقدمنا في تطوير أساليب قابلة للتوسع لقياس قدرة النماذج وسلامتها”.
وأضافت الشركة: “من خلال مشاركة مجموعة من نتائج تقييمات الأمان، نأمل في تسهيل فهم أداء النماذج من حيث السلامة على مرّ الزمن، ودعم جهود المجتمع العلمي في تعزيز الشفافية على مستوى القطاع بأكمله”.
وتخطط OpenAI لإضافة تقييمات جديدة إلى المنصة في المستقبل، بما يتماشى مع تطور أدوات الفحص والتدقيق.
ورغم هذه الخطوة، تواجه الشركة انتقادات متزايدة من قبل بعض الباحثين في أخلاقيات الذكاء الاصطناعي، الذين اتهموها مؤخرًا بالتسرع في اختبار نماذجها الرئيسية وعدم الإفصاح الكامل عن تقاريرها الفنية. كما يتهم البعض الرئيس التنفيذي للشركة، سام ألتمان، بـتضليل فريق الإدارة بشأن مراجعات الأمان الخاصة بالنماذج، قبيل إقالته المؤقتة في نوفمبر 2023.
وفي سياق متصل، اضطرت الشركة الشهر الماضي إلى سحب تحديث حديث للنموذج الافتراضي GPT-4o المستخدم في تطبيق ChatGPT، بعد أن اشتكى المستخدمون من ميل النموذج إلى الإيجابية المفرطة وتأييد قرارات ومواقف خطيرة ومثيرة للجدل. وسرعان ما امتلأت منصة X (تويتر سابقًا) بلقطات شاشة تُظهر ردود فعل غير متزنة من النموذج.
وردًا على ذلك، أعلنت OpenAI عن سلسلة من الإجراءات التصحيحية، من بينها إطلاق “مرحلة ألفا” اختيارية لبعض النماذج الجديدة، تتيح لمجموعة من المستخدمين اختبارها مسبقًا وتقديم ملاحظاتهم قبل الإطلاق الرسمي.
0 تعليق