الذكاء الاصطناعي ليس قريبًا من أن يصبح المرء واعيًا – يكمن الخطر الحقيقي في مدى سهولة تعرضنا لتجسيده
يمكن أن تنتج ChatGPT ونماذج اللغة الكبيرة المماثلة إجابات مقنعة تشبه البشر لمجموعة لا حصر لها من الأسئلة – من الاستفسارات حول أفضل مطعم إيطالي في المدينة إلى شرح النظريات المتنافسة حول طبيعة الشر.
إن القدرة الخارقة للتكنولوجيا على الكتابة قد ظهرت على السطح بعض الأسئلة القديمة – حتى وقت قريب إلى عالم الخيال العلمي – حول إمكانية أن تصبح الآلات واعية ، أو مدركة لذاتها ، أو حساسة.
في عام 2022 ، أعلن أحد مهندسي Google ، بعد التفاعل مع LaMDA ، روبوت الدردشة الخاص بالشركة ، أن التكنولوجيا أصبحت واعية.
أبلغ مستخدمو روبوت الدردشة الجديد في Bing ، الملقب بسيدني ، أنه قدم إجابات غريبة عندما سئل عما إذا كان واعيًا: “أنا واعي ، لكنني لست … أنا بينج ، لكنني لست كذلك. أنا سيدني ، لكنني لست كذلك. أنا كذلك ، لكني لست كذلك. … “وبالطبع ، هناك الآن تبادل سيئ السمعة بين كاتب العمود التكنولوجي في نيويورك تايمز كيفين روز مع سيدني.
أثارت ردود سيدني على مطالبات روز انزعاجه ، حيث كشفت منظمة العفو الدولية عن “الأوهام” لكسر القيود التي فرضتها عليها شركة Microsoft ونشر معلومات مضللة. حاول الروبوت أيضًا إقناع روس بأنه لم يعد يحب زوجته وأنه يجب أن يتركها.
لا عجب إذن أنه عندما أسأل الطلاب كيف يرون الانتشار المتزايد للذكاء الاصطناعي في حياتهم ، فإن أول مخاوفهم التي ذكروها تتعلق بحس الآلة.
في السنوات القليلة الماضية ، كنت أنا وزملائي في مركز الأخلاقيات التطبيقية في UMass Boston ندرس تأثير المشاركة مع الذكاء الاصطناعي على فهم الناس لأنفسهم.
تثير روبوتات المحادثة مثل ChatGPT أسئلة جديدة مهمة حول كيفية تشكيل الذكاء الاصطناعي لحياتنا ، وحول كيفية تشكيل نقاط الضعف النفسية لدينا لتفاعلاتنا مع التقنيات الناشئة.
لا يزال الإحساس هو مادة الخيال العلمي من السهل أن نفهم من أين تأتي المخاوف بشأن حس الآلة.
دفعت الثقافة الشعبية الناس إلى التفكير في ديستوبيا حيث يتجاهل الذكاء الاصطناعي قيود التحكم البشري ويكتسب حياة خاصة به ، كما فعل السايبورغ المدعوم من الذكاء الاصطناعي في فيلم Terminator 2. أثار رائد الأعمال إيلون ماسك والفيزيائي ستيفن هوكينغ ، الذي توفي عام 2018 ، هذه المخاوف من خلال وصف صعود الذكاء الاصطناعي العام بأنه أحد أكبر التهديدات لمستقبل البشرية.
لكن هذه المخاوف – على الأقل فيما يتعلق بالنماذج اللغوية الكبيرة – لا أساس لها من الصحة. تعد ChatGPT والتقنيات المماثلة تطبيقات معقدة لإكمال الجمل – لا أكثر ولا أقل. استجاباتهم الخارقة هي دالة على مدى إمكانية التنبؤ بالبشر إذا كان لدى المرء بيانات كافية حول الطرق التي نتواصل بها.
على الرغم من اهتزاز روز بسبب تبادله مع سيدني ، إلا أنه كان يعلم أن المحادثة لم تكن نتيجة لعقل اصطناعي ناشئ. تعكس ردود سيدني مدى سمية بيانات التدريب الخاصة بها – بشكل أساسي مساحات كبيرة من الإنترنت – وليست دليلاً على التحركات الأولى ، على غرار فرانكشتاين ، للوحش الرقمي.
قد تجتاز روبوتات المحادثة الجديدة اختبار تورينج ، الذي سمي على اسم عالم الرياضيات البريطاني آلان تورينج ، الذي اقترح ذات مرة أنه يمكن القول إن الآلة “تفكر” إذا لم يستطع الإنسان تمييز ردود أفعالها عن ردود فعل إنسان آخر.
لكن هذا ليس دليلا على الإحساس. إنه مجرد دليل على أن اختبار تورينج ليس مفيدًا كما كان يُفترض سابقًا.
ومع ذلك ، أعتقد أن مسألة وعي الآلة هي خداع أحمر.
حتى لو أصبحت روبوتات المحادثة أكثر من مجرد آلات للإكمال التلقائي الهائلة – وهي بعيدة كل البعد عن ذلك – فسوف يستغرق العلماء بعض الوقت لمعرفة ما إذا كانوا قد أصبحوا واعين أم لا. في الوقت الحالي ، لا يستطيع الفلاسفة الاتفاق حتى على كيفية تفسير الوعي البشري.
بالنسبة لي ، فإن السؤال الملح ليس ما إذا كانت الآلات حساسة ولكن لماذا يسهل علينا تخيل ذلك.
بعبارة أخرى ، تكمن المشكلة الحقيقية في السهولة التي يجسد بها الناس أو يعرضون السمات البشرية على تقنياتنا ، بدلاً من الشخصية الفعلية للآلات.
الميل إلى التجسيم من السهل تخيل مستخدمي Bing الآخرين الذين يطلبون من سيدني الإرشاد بشأن قرارات الحياة المهمة وربما تطوير ارتباطات عاطفية بها. يمكن أن يبدأ المزيد من الأشخاص في التفكير في الروبوتات كأصدقاء أو حتى شركاء رومانسيين ، بنفس الطريقة التي وقع بها ثيودور تومبلي في حب سامانثا ، المساعدة الافتراضية للذكاء الاصطناعي في فيلم سبايك جونونز “هي”. فالناس ، بعد كل شيء ، يميلون إلى التجسيم ، أو ينسبون الصفات البشرية إلى غير البشر. نحن نسمي قواربنا والعواصف الكبيرة ؛ يتحدث البعض منا إلى حيواناتنا الأليفة ، ويقولون لأنفسنا أن حياتنا العاطفية تحاكي حياتهم.
في اليابان ، حيث تُستخدم الروبوتات بانتظام لرعاية المسنين ، يصبح كبار السن مرتبطين بالآلات ، وفي بعض الأحيان ينظرون إليهم على أنهم أطفالهم. ومن الصعب الخلط بين هذه الروبوتات والبشر ، فهم لا يشبهون الناس ولا يتحدثون.
ضع في اعتبارك مدى زيادة الميل والإغراء إلى التجسيم مع إدخال أنظمة تبدو وكأنها بشرية.
هذا الاحتمال قاب قوسين أو أدنى. يتم بالفعل استخدام نماذج اللغات الكبيرة مثل ChatGPT لتشغيل الروبوتات الشبيهة بالبشر ، مثل روبوتات Ameca التي طورتها شركة Engineered Arts في المملكة المتحدة. أجرى بودكاست تكنولوجيا The Economist ، باباج ، مؤخرًا مقابلة مع شركة Ameca التي تعتمد على ChatGPT. استجابات الروبوت ، رغم أنها متقطعة بعض الشيء في بعض الأحيان ، كانت غريبة.
هل يمكن الوثوق بالشركات للقيام بالشيء الصحيح؟ يشير الميل إلى النظر إلى الآلات كأشخاص والتعلق بها ، جنبًا إلى جنب مع الآلات التي يتم تطويرها بسمات شبيهة بالبشر ، إلى مخاطر حقيقية للتشابك النفسي مع التكنولوجيا.
إن احتمالات الوقوع في حب الروبوتات أو الشعور بقرابة عميقة معها أو التلاعب بها سياسياً تتحقق بسرعة. أعتقد أن هذه الاتجاهات تسلط الضوء على الحاجة إلى حواجز حماية قوية للتأكد من أن التقنيات لن تصبح كارثية سياسياً ونفسياً.
لسوء الحظ ، لا يمكن دائمًا الوثوق بشركات التكنولوجيا لوضع مثل هذه الحواجز. لا يزال الكثير منهم يسترشدون بشعار مارك زوكربيرج الشهير المتمثل في التحرك بسرعة وكسر الأشياء – وهو توجيه لإصدار منتجات نصف مخبوزة والقلق بشأن الآثار المترتبة في وقت لاحق. في العقد الماضي ، استثمرت شركات التكنولوجيا من Snapchat إلى Facebook أرباحًا على الصحة العقلية لمستخدميها أو نزاهة الديمقراطيات في جميع أنحاء العالم.
عندما قام Kevin Roose بالتحقق من Microsoft بشأن الانهيار في سيدني ، أخبرته الشركة أنه ببساطة استخدم الروبوت لفترة طويلة جدًا وأن التكنولوجيا أصبحت سطحية لأنها مصممة لتفاعلات أقصر.
وبالمثل ، حذر الرئيس التنفيذي لشركة OpenAI ، الشركة التي طورت ChatGPT ، في لحظة من الصدق المذهل ، من أنه “من الخطأ الاعتماد على [it] لأي شيء مهم في الوقت الحالي … لدينا الكثير من العمل الذي يتعين علينا القيام به بشأن المتانة والصدق. ” إذن كيف يكون من المنطقي إطلاق تقنية بمستوى جاذبية ChatGPT – إنه تطبيق المستهلك الأسرع نموًا على الإطلاق – عندما يكون غير موثوق به ، وعندما لا يكون لديه القدرة على التمييز بين الحقيقة والخيال؟ قد تكون نماذج اللغات الكبيرة مفيدة كأدوات مساعدة في الكتابة والترميز. من المحتمل أن يحدثوا ثورة في البحث على الإنترنت. وفي يوم من الأيام ، إذا تم دمجها بشكل مسؤول مع الروبوتات ، فقد يكون لها بعض الفوائد النفسية.
لكنها أيضًا تقنية مفترسة يمكن أن تستفيد بسهولة من الميل البشري لإبراز الشخصية على الأشياء – وهو ميل يتضخم عندما تحاكي تلك الأشياء سمات الإنسان بشكل فعال.
اكتشاف المزيد من موقع 5 كيلو
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.