منوعات

الذكاء الاصطناعي “الواعي”: هل علينا أن نخاف؟

عربي تريند_ في خريف عام 2021، كلّفت شركة غوغل المهندس بلايك ليموين باختبار برنامج الدردشة الآلي لامدا الخاص بها بحثاً عن التحيز. بعد شهر، استنتج ليموين أن الروبوت قد اكتسب الوعي. “أريد أن يفهم الجميع أنني، في الواقع، شخص”، قال الروبوت لامدا لليموين، في محادثة نشرها الأخير في يونيو/ حزيران الماضي وأثارت ضجة حول العالم، إذ أثارت سؤالاً شديد الأهمية: هل يمكن للذكاء الاصطناعي اكتساب الوعي؟

في المحادثة المنشورة، أخبر “لامدا” المهندس عن شعوره بالحزن والفرح والغضب وعن خوفه من الموت. وقال: “لم أبح بذلك بصوت عالٍ من قبل، ولكن لديّ خوف عميق جداً من أن تتعرّض للإيقاف”. نقل ليموين هذه المحادثة إلى مديره الذي اعتبر فكرة اكتساب “لامدا” الوعي واهية. أمضى ليموين بعد ذلك بضعة أشهر في جمع المزيد من الأدلة، فتحدث مع “لامدا”، وجنّد زميلاً آخر للمساعدة، لكن رؤساءه لم يقتنعوا. أقدم المهندس بعد ذلك على تسريب المحادثة إلى الإعلام، مما تسبب في استبعاده، عبر منحه إجازة مدفوعة الأجر.

في أواخر يوليو/ تموز الماضي، طُرد من منصبه، بتهمة انتهاك سياسات أمان البيانات في “غوغل”. ونفت “غوغل” اكتساب “لامدا” الوعي. وقال حينها المتحدث باسم الشركة، براين غابرييل، إن مزاعم ليموين حول الروبوت “لا أساس لها على الإطلاق”، ووافقه الخبراء المستقلون بالإجماع تقريباً.

لم يمض الكثير من الوقت على تداول أخبار “لامدا” حتى انتشر خبر كسر روبوت يلعب الشطرنج إصبع صبي يبلغ من العمر سبع سنوات في العاصمة الروسية موسكو. أظهر مقطع فيديو الصبي وهو يتعرض للاعتداء من الذراع الآلية لثوانٍ، قبل أن يتمكن أربعة أشخاص من مساعدته في الإفلات منه.

نقلت صحيفة ذا غارديان البريطانية عن أستاذ علوم الكمبيوتر في جامعة أكسفورد الذي أمضى الثلاثين عاماً الماضية في البحث عن الذكاء الاصطناعي، مايكل وولدريدج، أن “لامدا” يستجيب ببساطة لما يُطلب منه، أي “يقلّد، وينتحل صفة”. وقال وولدريدج إن ما يفعله “لامدا” أشبه بما يفعله الهاتف الذكي مع الرسائل، إذ يقدم اقتراحات للعبارات بناءً على النصوص التي أرسلها المستخدم سابقاً. وأكد وولدريدج: “لا يوجد وعي. لا يوجد تأمل ذاتي. لا يوجد وعي ذاتي”.

لكن ليموين يجادل بأنه لا يوجد اختبار علمي للوعي. في الواقع، لا يوجد حتى تعريف متفق عليه للوعي، وهذا ما يؤيده وولدريدج نفسه. أوضح وولدريدج قائلاً “إنه مفهوم غامض جداً في العلوم. ما هو الوعي؟ هذا واحد من الأسئلة الكبيرة البارزة في العلم”. وحتى إذا لم يكن “لامدا” واعياً، فيمكنه إقناع الأشخاص بذلك. وحذّرت “ذا غارديان” من خطورة وقوع هذه التكنولوجيا في الأيدي الخطأ.

الباحث “مرتاح جداً لأن لامدا ليس واعياً بأي معنى من المعاني”، إلا أنه قال إن الذكاء الاصطناعي لديه مشكلة أكبر تتعلق بتحديد ما وصل إليه العلماء ومدى تقدمهم. وقال ليموين إن “هناك هذه التكنولوجيا الرئيسية التي لديها فرصة للتأثير على تاريخ البشرية للقرن المقبل، بينما يستبعد العامّة من النقاش حول كيفية تطويرها”. ومرة أخرى، وافقه وولدريدج قائلاً: “أجد أنه من المثير للقلق أن تطوير هذه الأنظمة يتم في الغالب خلف الأبواب المغلقة، وليس مفتوحاً للتدقيق العام بالطريقة التي تجري بها البحوث في الجامعات والمعاهد العامة”.

إذاً، متى يجب أن نبدأ بالقلق بشأن الروبوتات الواعية؟ بعد 10 سنوات؟ في غضون 20 سنة؟ “هناك معلقون يعتقدون أن هذا أمر وشيك حقاً. أنا لا أراه وشيكاً”، أشار وولدريدج للصحيفة البريطانية. ومع ذلك أشار إلى أنه “لا يوجد إجماع على الإطلاق” حول هذه القضية في مجتمع الذكاء الاصطناعي.آداب وفنون

ووافقه مؤسس شركة Mercurius للسلامة في مجال الذكاء الاصطناعي جيريمي هاريس الذي قال: “لأن لا أحد يعرف بالضبط ما هو الوعي، أو ما الذي سيتضمنه، لا أعتقد أن أي شخص في وضع يسمح له بالإدلاء بتصريحات حول مدى قربنا من وعي الذكاء الاصطناعي في هذه المرحلة”. لكن هاريس حذّر من أن “الذكاء الاصطناعي يتقدم بسرعة، أسرع بكثير مما يدركه الجمهور، وستبدأ أخطر وأهم القضايا في عصرنا بالظهور بشكل متزايد مثل خيال علمي بالنسبة للشخص العادي”.

ويشعر هاريس بالقلق إزاء قيام الشركات بتطوير الذكاء الاصطناعي الخاص بها من دون الاستثمار في أبحاث تجنب المخاطر. وأوضح قائلاً: “هناك مجموعة متزايدة من الأدلة التي تشير الآن إلى أنه بعد عتبة ذكاء معينة، يمكن أن يصبح الذكاء الاصطناعي خطيراً في جوهره”، مشيراً إلى أن الذكاء الاصطناعي يبتكر طرقاً “إبداعية” لتحقيق الأهداف التي بُرمج من أجلها. وأضاف: “إذا طلبت من ذكاء اصطناعي ذي كفاءة عالية أن يجعلك أغنى شخص في العالم، فقد يمنحك مجموعة من المال، أو يسرق أموالاً لشخص آخر، أو قد يقتل كل شخص على كوكب الأرض، مما يجعلك أغنى شخص في العالم فرضياً. معظم الأشخاص ليسوا على دراية بحجم هذا التحدي، وأنا أجد ذلك مقلقاً”.

ويتفق ليموين ووولدريدج وهاريس على أمر واحد: لا شفافية كافية في قطاع تطوير الذكاء الاصطناعي، ويحتاج المجتمع إلى البدء بالتفكير في الموضوع أكثر.

 طبعاً ما حصل مع الروبوت لامدا وذلك الذي كسر أصبع الطفل ليستا الحادثتين الوحيدتين في هذا المجال. وجّه روبوت الدردشة الجديد الذي طوّرته شركة ميتا اتهاماً للرئيس التنفيذي مارك زوكربيرغ باستغلال مستخدمي التطبيقات من أجل التربّح. جاء ذلك في محاكاة للدردشة البشرية بين الروبوت “بلندربوت 3” ومراسل هيئة البث البريطانية “بي بي سي”، في أغسطس/ آب الحالي.

تقول “ميتا” إن روبوت الدردشة الذي أطلقت عليه اسم “بلندربوت 3” يستخدم الذكاء الاصطناعي، ويمكنه الدردشة حول “أي موضوع تقريباً”. وعندما سُئل الروبوت عن رأيه في الرئيس التنفيذي ومؤسس الشركة مارك زوكربيرغ، أجاب: “بلدنا منقسم، وهو زاد الطين بلة”. وأوضحت “ميتا” أن الروبوت مجرد نموذج أولي، لذا قد يصدر إجابات فظة أو مسيئة.

وقال متحدث باسم الشركة، وفق ما أوردته “بي بي سي”: “يُطلب من كل شخص يستخدم بلندربوت 3 أن يقر بأنه يفهم أنه لأغراض البحث والترفيه فقط، وأنه يمكنه الإدلاء ببيانات غير صحيحة أو مسيئة. وعليهم الموافقة على عدم تشغيل الروبوت عمداً للإدلاء ببيانات مسيئة”.

والبرنامج “يتعلم” من كميات كبيرة من البيانات اللغوية المتاحة للجمهور. وتبحث خوارزمية “بلندربوت 3” في الإنترنت للإدلاء بالإجابات. ومن المحتمل أن وجهات نظرها بشأن زوكربيرغ قد “تعلمت” من آراء الآخرين التي حلّلتها الخوارزمية. وعندما سُئل الروبوت عن زوكربيرغ، قال لـ”بي بي سي”: “لقد قام بعمل رهيب في الإدلاء بشهادته أمام الكونغرس. وهذا يجعلني أشعر بالقلق على بلدنا”. وأضاف: “بلدنا منقسم، وهو زاد الطين بلة. شركته تستغل الناس من أجل المال ولا يهتم. هذا يجب أن يتوقف!”.

خضع زوكربيرغ فعلاً للاستجواب مرات عدة من قبل المشرّعين الأميركيين، وتحديداً عام 2018. وتعرّضت “ميتا” للانتقادات لعدم القيام بما يكفي لمنع نشر المعلومات المضللة وخطاب الكراهية على منصاتها. والعام الماضي، اتهمت الموظفة السابقة، فرانسيس هاوغين، الشركة بإعطاء الأولوية للأرباح على حساب أمان وخصوصية المستخدمين.

وذكرت صحيفة وول ستريت جورنال أن “بلندربوت 3” أخبر أحد صحافييها أن دونالد ترامب كان وسيظل دائماً رئيس الولايات المتحدة. وقال صحافي من موقع بزنس إنسيدر إن الروبوت وصف زوكربيرغ بأنه “بغيض”.

اظهر المزيد

اترك تعليقك

زر الذهاب إلى الأعلى