OpenAI تحذر من أن مستخدمي الوضع الصوتي ChatGPT قد ينتهي بهم الأمر إلى تكوين “علاقات اجتماعية” مع الذكاء الاصطناعي
حذرت OpenAI يوم الخميس من أن ميزة الوضع الصوتي التي تم إصدارها مؤخرًا لـ ChatGPT قد تؤدي إلى قيام المستخدمين بتكوين علاقات اجتماعية مع نموذج الذكاء الاصطناعي (AI). وكانت المعلومات جزءًا من بطاقة النظام الخاصة بالشركة الخاصة بـ GPT-4o، وهي عبارة عن تحليل مفصل حول المخاطر المحتملة والضمانات المحتملة لنموذج الذكاء الاصطناعي الذي اختبرته الشركة واستكشفته. من بين العديد من المخاطر، كان أحدها هو إمكانية قيام الأشخاص بتجسيد برنامج الدردشة الآلي وتطوير الارتباط به. تمت إضافة الخطر بعد أن لاحظت علامات عليه أثناء الاختبار المبكر.
وضع الصوت ChatGPT قد يجعل المستخدمين مرتبطين بالذكاء الاصطناعي
في مستند فني مفصل بعنوان System Card، سلطت OpenAI الضوء على التأثيرات المجتمعية المرتبطة بـ GPT-4o والميزات الجديدة المدعومة بنموذج الذكاء الاصطناعي الذي أصدرته حتى الآن. وسلطت شركة الذكاء الاصطناعي الضوء على هذا التجسيم، والذي يعني في الأساس إسناد الخصائص أو السلوكيات البشرية إلى كيانات غير بشرية.
أثار OpenAI مخاوف من أنه نظرًا لأن وضع الصوت يمكنه تعديل الكلام والتعبير عن المشاعر المشابهة للإنسان الحقيقي، فقد يؤدي ذلك إلى تطوير ارتباط المستخدمين به. المخاوف ليست بلا أساس أيضا. أثناء اختبارها المبكر الذي شمل الفريق الأحمر (استخدام مجموعة من المتسللين الأخلاقيين لمحاكاة الهجمات على المنتج لاختبار نقاط الضعف) واختبار المستخدم الداخلي، وجدت الشركة حالات كان فيها بعض المستخدمين يشكلون علاقة اجتماعية مع الذكاء الاصطناعي.
وفي إحدى الحالات المحددة، وجدت مستخدمًا يعبر عن روابط مشتركة ويقول “هذا هو آخر يوم لنا معًا” للذكاء الاصطناعي. قالت OpenAI أن هناك حاجة للتحقيق فيما إذا كانت هذه العلامات يمكن أن تتطور إلى شيء أكثر تأثيرًا على مدى فترة أطول من الاستخدام.
أحد المخاوف الرئيسية، إذا كانت المخاوف صحيحة، هو أن نموذج الذكاء الاصطناعي قد يؤثر على التفاعلات بين البشر حيث يعتاد الناس أكثر على التواصل الاجتماعي مع روبوت الدردشة بدلاً من ذلك. وقالت OpenAI إنه على الرغم من أن هذا قد يفيد الأفراد الوحيدين، إلا أنه يمكن أن يؤثر سلبًا على العلاقات الصحية.
هناك مشكلة أخرى وهي أن التفاعلات الممتدة بين الذكاء الاصطناعي والإنسان يمكن أن تؤثر على الأعراف الاجتماعية. ولتسليط الضوء على ذلك، قدمت OpenAI مثالاً على أنه باستخدام ChatGPT، يمكن للمستخدمين مقاطعة الذكاء الاصطناعي في أي وقت و”أخذ الميكروفون”، وهو سلوك مخالف للمعايير عندما يتعلق الأمر بالتفاعلات بين البشر.
علاوة على ذلك، هناك آثار أوسع نطاقًا لتكوين البشر روابط مع الذكاء الاصطناعي. إحدى هذه القضايا هي الإقناع. في حين وجدت OpenAI أن درجة الإقناع للنماذج لم تكن عالية بما يكفي لإثارة القلق، إلا أن هذا يمكن أن يتغير إذا بدأ المستخدم في الثقة في الذكاء الاصطناعي.
في الوقت الحالي، ليس لدى شركة الذكاء الاصطناعي حل لهذه المشكلة ولكنها تخطط لمراقبة التطور بشكل أكبر. قال OpenAI: “نحن نعتزم مواصلة دراسة إمكانية الاعتماد العاطفي، والطرق التي قد يؤدي بها التكامل الأعمق بين العديد من ميزات نموذجنا وأنظمتنا مع الطريقة الصوتية إلى تحفيز السلوك”.
اكتشاف المزيد من موقع 5 كيلو
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.