هل كتب الروبوت هذا؟ نحتاج إلى علامات مائية لاكتشاف الذكاء الاصطناعي
كاتب موهوب يتمتع بقدرات إبداعية مذهلة يكون له انطلاقة مثيرة. يقوم ChatGPT ، وهو نظام لتوليد النصوص من شركة OpenAI ومقرها سان فرانسيسكو ، بكتابة المقالات والسيناريوهات وأفلام القصائد الفكاهية بعد إصدارها الأخير للجمهور ، عادةً في ثوانٍ وغالبًا بمستوى عالٍ. حتى نكاتها يمكن أن تكون مضحكة. لقد أذهل العديد من العلماء في مجال الذكاء الاصطناعي كيف يبدو الإنسان.
ومن اللافت للنظر أنه سيتحسن قريبًا. من المتوقع على نطاق واسع أن تطلق أوبن إيه آي إصدارها التالي المعروف باسم GPT-4 في الأشهر المقبلة ، ويقول المختبرين الأوائل إنه أفضل من أي شيء جاء من قبل.
لكن كل هذه التحسينات لها ثمن. كلما كان الذكاء الاصطناعي أفضل ، كان من الصعب التمييز بين النص البشري والنص المصنوع آليًا. تحتاج OpenAI إلى إعطاء الأولوية لجهودها في تصنيف عمل الآلات أو قد نغرق قريبًا بمزيج محير من المعلومات الحقيقية والمزيفة عبر الإنترنت.
في الوقت الحالي ، يقع العبء على عاتق الناس ليكونوا صادقين. تنص سياسة OpenAI الخاصة بـ ChatGPT على أنه عند مشاركة المحتوى من نظامه ، يجب على المستخدمين الإشارة بوضوح إلى أنه تم إنشاؤه بواسطة AI “بطريقة لا يمكن لأي قارئ أن يفوتها” أو يسيء فهمها.
لهذا أقول ، حظا سعيدا.
يكاد يكون من المؤكد أن الذكاء الاصطناعي سيساعد في قتل مقال الكلية. (اعترف طالب في نيوزيلندا بالفعل أنهم استخدموه للمساعدة في رفع درجاتهم.) ستستخدمه الحكومات لإغراق الشبكات الاجتماعية بالدعاية ، ومرسلي البريد العشوائي لكتابة مراجعات مزيفة من أمازون وعصابات برامج الفدية لكتابة رسائل بريد إلكتروني تصيدية أكثر إقناعًا. لن يشير أي شيء إلى الماكينة خلف الستارة.
وسيكون عليك فقط أن تأخذ كلامي لأن هذا العمود تمت صياغته بالكامل من قبل إنسان أيضًا.
يحتاج النص الذي تم إنشاؤه بواسطة الذكاء الاصطناعي بشدة إلى نوع من العلامات المائية ، على غرار الطريقة التي تحمي بها شركات الصور الفوتوغرافية صورها واستوديوهات الأفلام التي تمنع القرصنة. لدى OpenAI بالفعل طريقة لوضع علامة على أداة أخرى لإنشاء المحتوى تسمى DALL-E مع توقيع مضمن في كل صورة تقوم بإنشائها. لكن من الأصعب بكثير تتبع مصدر النص. كيف تضع تسمية سرية يصعب إزالتها على الكلمات؟
أكثر الأساليب الواعدة هو التشفير. في محاضرة ألقاها ضيف الشهر الماضي في جامعة تكساس في أوستن ، قدم سكوت آرونسون ، عالم أبحاث OpenAI ، لمحة نادرة عن الكيفية التي يمكن أن تميز بها الشركة النص الناتج عن أداة GPT-4 الأكثر شبهاً بالبشر.
أوضح آرونسون ، الذي عينته شركة OpenAI هذا العام لمواجهة تحدي المصدر ، أن الكلمات يمكن تحويلها إلى سلسلة من الرموز ، تمثل علامات الترقيم أو الحروف أو أجزاء من الكلمات ، مما يشكل حوالي 100000 رمز في المجموع. سيقرر نظام GPT بعد ذلك ترتيب تلك الرموز المميزة (التي تعكس النص نفسه) بطريقة يمكن اكتشافها باستخدام مفتاح تشفير معروف لـ OpenAI فقط. قال آرونسون: “لن يحدث هذا أي فرق يمكن اكتشافه للمستخدم النهائي”.
في الواقع ، سيجد أي شخص يستخدم أداة GPT صعوبة في إزالة إشارة العلامة المائية ، حتى عن طريق إعادة ترتيب الكلمات أو إزالة علامات الترقيم ، على حد قوله. أفضل طريقة للتغلب عليها هي استخدام نظام ذكاء اصطناعي آخر لإعادة صياغة إخراج أداة GPT. لكن هذا يتطلب جهدًا ، ولن يفعله الجميع. في محاضرته ، قال آرونسون إن لديه نموذجًا أوليًا عمليًا.
ولكن حتى بافتراض أن طريقته تعمل خارج بيئة المختبر ، فإن OpenAI لا يزال يعاني من مأزق. هل تطلق مفاتيح العلامة المائية للجمهور أم تحتفظ بها بشكل خاص؟
إذا تم الإعلان عن المفاتيح ، يمكن للأساتذة في كل مكان تشغيل مقالات طلابهم من خلال برامج خاصة للتأكد من أنها ليست مصنوعة آليًا ، بالطريقة نفسها التي يفعلها الكثيرون الآن للتحقق من الانتحال. لكن هذا من شأنه أيضًا أن يجعل من الممكن للممثلين السيئين اكتشاف العلامة المائية وإزالتها.
في غضون ذلك ، يؤدي الحفاظ على خصوصية المفاتيح إلى إنشاء نموذج أعمال قوي محتمل لـ OpenAI: فرض رسوم على الأشخاص للوصول. يمكن لمسؤولي تكنولوجيا المعلومات دفع اشتراك لفحص البريد الإلكتروني الوارد بحثًا عن هجمات التصيد الاحتيالي ، بينما يمكن للكليات دفع رسوم جماعية لأساتذتها – ويجب أن يكون سعر استخدام الأداة مرتفعًا بما يكفي لتأجيل عصابات برامج الفدية وكتّاب الدعاية. سوف تكسب شركة أوبن إيه آي المال بشكل أساسي من وقف إساءة استخدام إبداعاتها.
يجب أن نضع في اعتبارنا أيضًا أن شركات التكنولوجيا ليس لديها أفضل سجل إنجازات لمنع إساءة استخدام أنظمتها ، خاصةً عندما تكون غير خاضعة للتنظيم وتكون مدفوعة بالربح. (تقول شركة OpenAI إنها شركة ربح مختلطة وغير ربحية ستحد من دخلها المستقبلي). لكن المرشحات الصارمة التي وضعتها OpenAI بالفعل لمنع أدوات النصوص والصور الخاصة بها من إنشاء محتوى مسيء هي بداية جيدة.
يحتاج OpenAI الآن إلى إعطاء الأولوية لنظام العلامات المائية لنصه. يبدو أن مستقبلنا سيصبح غارقًا بالمعلومات التي يتم إنشاؤها بواسطة الآلات ، ليس فقط من أدوات OpenAI الشائعة المتزايدة ، ولكن من الارتفاع الأوسع في البيانات “الاصطناعية” المزيفة المستخدمة لتدريب نماذج الذكاء الاصطناعي واستبدال البيانات التي يصنعها الإنسان. سيتم إنشاء الصور ومقاطع الفيديو والموسيقى وغير ذلك بشكل متزايد بشكل مصطنع لتناسب أذواقنا شديدة الخصوصية.
من الممكن بالطبع ألا تهتم أنفسنا في المستقبل بما إذا كانت أغنية جذابة أو رسوم متحركة نشأت من الذكاء الاصطناعي. تتغير القيم الإنسانية بمرور الوقت ؛ لا نهتم كثيرًا الآن بحفظ الحقائق وتوجيهات القيادة مما كنا عليه قبل 20 عامًا ، على سبيل المثال. لذلك في مرحلة ما ، قد لا تبدو العلامات المائية ضرورية للغاية.
ولكن في الوقت الحالي ، مع إعطاء قيمة ملموسة للبراعة البشرية التي يدفعها الآخرون ، أو درجتها ، ومع اليقين تقريبًا من إساءة استخدام أداة OpenAI ، نحتاج إلى معرفة المكان الذي يتوقف فيه العقل البشري وتبدأ الآلات. ستكون العلامة المائية بداية جيدة.
© بلومبرج إل بي 2022
احصل على آخر المستجدات من معرض الإلكترونيات الاستهلاكية على Gadgets 360 ، في مركز CES 2023 الخاص بنا.
اكتشاف المزيد من موقع 5 كيلو
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.