غير مصنف

الروبوت “صوفيا” بين الحقائق العلمية والمبالغات

لماذا تعمد صانعو "صوفيا" تصويرها بشكل مرعب؟

إذا كنت من رواد مواقع التواصل الاجتماعي الدائمين فإنك على الأرجح قد شاهدت الحوار التلفزيوني الخاص بـ”صوفيا” عميل الذكاء الاصطناعي القادر على إجراء حوار بلهجة سلسة وتعبيرات وجهها التي تقترب من كونها طبيعية. أو على الأقل قرأت منشورًا أو أكثر هنا أو هناك يستعرض اجاباتها في حوارات متعددة تعبر فيه عن رغبتها في تدمير البشر وقلقها على حقوق الروبوتات في العالم ويدعو فيه كاتبه لأهمية الشعور بالـ “ذعر”!

فالروبوتات متسلحةً بالشبكات العصبية الصناعية وتقنيات تعلم الآلة في تقدم مستمر و”ذاتي” ينذر

بنهاية الإنسان كالصنف المسيطر على الكوكب. واستشهد العديد من السائرين في هذا التيار الذي أصبح رئيسيًا في الأوساط، بمشروع “الروبوتات” الذي اضطر الفيسبوك “لإطفائه” لأن الروبوتات كانت قد خرجت عن السيطرة وابتكرت لغةً جديدةً تفهمها فيما بينها ولا يفهمها الإنسان.

نسج الصحافيون ورواد التواصل الاجتماعي قصصًا كثيرة حول هاتين الحالتين ومثيلاتها، واستدعوا صورًا ومقتبسات من أفلام الخيال العلمي التي يحدث فيها صراعات بين عملاء الذكاء الاصطناعي على اختلاف أشكالها من جانب والإنسان من جانب آخر، معززين وجهة النظر الزاعمة بأننا في خطر محدق بلا شك مع تزايد وجود الذكاء الاصطناعي في حياتنا اليومية.

وأوجدت مثل هذه الأطروحات جوًا مشابهًا للأكشن الممزوج بالخيال العلمي، وعلى قدر ما أكره إفساد متعة الفيلم، فإنني أكتب لتزايد التساؤلات المستمرة التي يطرحها على الأصدقاء بخصوص صحة مثل هذه التحليلات، وكذلك القدر الكبير من نظرات وعبارات التشكك التي أواجهها شخصيا إذا ما ذكرت أنني أعمل في مجال تعليم الآلات والشبكات العصبية الاصطناعية، والأحاديث التي أجر مرارًا إليها عن خطورة التطور الكبير في الذكاء الاصطناعي، وأن إحلال الروبوتات والآلات الذكية محل الإنسان في وظائف عديدة قد يعزز الفقر والبطالة، وغيرها من النقاشات التي تحمل في طياتها كون الذكاء الاصطناعي “شر” يجب تجنبه أو السيطرة عليه قبل أن يسيطر هو علينا.

الحقيقة أن كل هذا ينطوي على اليسير جدًا من الحقيقية العلمية والكثير جدا جدًا من الأساطير والمبالغات!

أزعم، بحكم عملي لبضعة سنوات في تطبيقات الذكاء الاصطناعي في فهم وإنتاج اللغات الطبيعية، أنني في موقع يسمح لي بالتعقيب كباحث اتسخت يداه بكتابة أكواد بنفسه في المجال واختبار أخرى كتبها آخرون، ومتابعة الأبحاث المنشورة في المجال.

عندما انتشرت المقالات المبالغة  عن “إغلاق” فيسبوك للروبوتات التي طورت لغةً خاصة بها للتحاور فيما بينها لا يفهمها الإنسان، وغالت في تصوير الأمر وخطورته، حتى أن الكُتاب وصفوا رد فعل فريق العمل بأنهم أصيبوا بالذعر، لم أهتم كثيرًا! فهذا النوع من الخوف ليس بجديدٍ على المجتمع الغير متخصص، الإنسان مجملًا عدو ما يجهل. ولا أريد القارئ أن يأخذ الأمر بصورة شخصية، فأبرز الداعين لهذا الاتجاه من الذعر الجماعي فيزيائي مرموق “ستيفن هوكينج” ورائد أعمال ناجح “إلون مسك” شخصين ناجحين جدًا في مجالاتهما ولكنهما غير متخصصين في علوم الحاسب.

وتتوافق هذه النغمة مع صورة ذهنية جمعية مسبقة مبنية على كلاسيكيات الخيال العلمي مثل Terminator فتلقى صدى ويتحقق الانتشار الواسع لهذا النوع من المقالات والمنشورات. ولذات السبب، لم يعلق أي من فريق الذكاء الاصطناعي في فيسبوك أو الفريق البحثي الذي قام بإجراء التجارب لأيام على الادعاءات، فمثلها لا يتوقف، فقط يرتفع ويخبو ونتعايش معه.

من باب الفضول بحثت عن الورقة البحثية للمشروع، قرأتها، وتصفحت أكواد المشروع سريعًا لأخذ فكرة عما حدث فعلًا. بعد أيامٍ، وبعد أن كثر الحديث بشكل مبالغ، كتب مؤلفو الورقة البحثية عن الأمر على صفحاتهم وفي مدوناتهم لدحض الأساطير ووضع الأمور في موضعها. وفيما يلي سوف أحاول تبسيط الأمر للقارىء.

الهدف من المشروع كان تطوير بوتات محادثة chatbots قادرة على التفاوض مع الإنسان أو مع بوتات محادثة أخرى على امتلاك أشياء معينة (مثل مجموعة من الكرات، القبعات، وهكذا). الخوارزم الذي بنيت عليه الطريقة المتبعة لتحقيق الهدف يعتمد على ما يسمى بالمكافئة والعقوبة، وبينما يطور الفريق البحثي للمشروع البرامج، خصصوا مكافئة للنجاح في التفاوض، ولم يخصصوا مكافئة للتفاوض بلغة انجليزية سليمة أثناء عقد الصفقة. فحدث أن قامت الـ chatbots بمحاولة استخدام أقل الكلمات الممكنة لعقد الصفقات.

المثال الآتي يوضح نموذجًا لحوار دائر بين اثنين من هذه “الروبوتات”:

Bob: “I can can I I everything else.”

Alice: “Balls have zero to me to me to me to me to me to me to me to me to.”

وبينما يبدو هذا الحوار غير مفهوم للإنسان، فهو وسيلة للتواصل بين الـ chatbots سريعة وفعّالة وإن كانت غير مفهومة. وقد يعني تكرار الكلمات لعدد معين من المرات أنه يود الحصول على عدد معين من شيء ما من الأشياء محل التفاوض. ونظرًا لأن الهدف من المشروع كان برمجة الـ chatbots للتفاوض مع بعضها البعض ومع الإنسان، فإن الفريق قرر تعديل المعطيات ليعطي أهمية لاستخدام اللغة الانجليزية السليمة في التواصل.

باختصار، كان “اختراع” الـ chatbots لهذه اللغة المشوهة للتفاوض فيما بينها، نوعًا من الاستسهال وليس الذكاء الفائق. وكان خطأً برمجيًا ارتكبه الفريق البحثي وفضلوا اصلاحه. وهناك فرق شاسع بين تعديل المعطيات، و”إغلاق” المشروع الناتج عن الذعر. وشخصيًا لا أتخيل أنهم ذعروا حينما اكتشفوا الأمر، وإنما أتخيل شخصًا ما في المعمل، جالس أمام شاشته مضيقًا عينيه يبحث عن الخطأ في تصميم الخوارزم، وعندما وجده ضرب جبهته بكف يده قائلًا: “كيف أغفلنا هذا!” .

الموضوع في منتهى البساطة! لا داعي إطلاقًا للخوف! وفي الواقع فإن أكثر أنظمة الذكاء الاصطناعي ذكاءً، لا تفوق في ذكائها طفل صغير. ولا يوجد حتى اليوم عميل ذكاء اصطناعي واحد يمتلك إرادة حرة، ليفعل أو يقول أقصى مما هو مدرب عليه، وليس العلم قريب بأي صورةٍ من الصور من تحقيق هذا. بل وإن أنظمة الذكاء الاصطناعي نادرًا جدًا ما تحقق الوظائف التي دربت عليها بكفاءة مائة بالمائة.

ما ينطبق على “روبوتات” فيسبوك ينطبق بشكلٍ ما على “صوفيا”. غير أن إثارة مثل هذه الأحاديث حول “صوفيا” في تقديري الشخصي متعمدة من قبل صانعيها، وليست مجرد مبالغة من صحافيين ومدونين كما هو في حالة “روبوتات” فيسبوك. لتقريب الأمر.

فإن “صوفيا” لا تختلف بشكل درامي عن المساعد الشخصي الموجود في هاتفك الذكي سواءً كان “سيري” أو “كورتانا” سوى أنها قد تم دمج برمجيات فهم وانتاج اللغات الطبيعية الخاصة بها في روبوت ذو شكل آدمي humanoid robot متقن الصنع، ومعزز ببرمجيات تتحكم في تعبيرات الوجه اعتمادًا على فهمها للغة. كل هذا يجعل “صوفيا” تبدو رائعة! ولكنها في فهمها للغة وانتاجها ربما لا تكون الأفضل!

ووارد جدًا أن تتفوق عليها “سيري” أو “كورتانا” في فهم الأسئلة والإجابة عليها في بعض المجالات. ومع بعض التركيز في حوارات متعددة لها، قد تلاحظ أنها تراوغ، ليس لأنها ذكية جدًا، بل لأنها على الأرجح غير ذكية بما يكفي لتمتلك إجابة على كل شيء “بعد”. وستجدها تطلق النكات فيما يتعلق من موقفها من البشر إلى آخره، بطريقة مشابهة لتلك التي تطلق بها “سيري” النكات إذا ما سألتها عن عمرها أو عن مشاعرها أو عن حياتها الشخصية.

الأمر ليس جديدًا إطلاقًا، وهاتفك المحمول يحتوي على نظام إجابة على الأسئلة مشابه. ببساطة شديدة، تستطيع أن تنظر إلى “صوفيا” على أنها برنامج مشابه لـ “سيري” مدمج داخل روبوت على شكل آدمي، مصمم بعناية شديدة، يحتوي العديد من المحركات الدقيقة في المفاصل والوجه، للتحكم في الانطباعات والتحركات بما يتوافق مع فهمها “البطيء نسبيًا” للكلام وتعابير وجه المحاور. التحكم في الانطباعات والحركات في حد ذاته يتم من خلال برمجيات مدربة على هذه الوظيفة، غير دقيقة بنسبة مائة بالمائة بدورها ولكنها أنيقة.

لماذا إذًا تم تصوير “صوفيا” بهذا الشكل المرعب بصورة “في الغالب” متعمدة من قبل صانعيها؟

هذا هو السؤال الذي ينبغي طرحه، وفي رأيي الشخصي فإن الأسباب في معظمها تسويقية! هناك وفرة من الروبوتات ذات الشكل الآدمي القادرة على التعلم من الخبرات والبيانات وفهم الكلام وعزف الموسيقى والقيام بمهام عديدة معقدة مطروحة منذ سنوات. لكن لم تحقق كل هذا الزخم، ليس لأنها سيئة! بل لأنها لم تظهر في مؤتمر مع محاور شهير، أو تصرح تصريحًا مثيرًا للجدل عن رغبتها في تدمير البشر.

يوافق هذا التصريح صورة ذهنية جمعية معززة على مر السنوات عن الشر الكامن في الآلات الذكية، ويتناغم مع تصريحات مشاهير كـ “ستيفن هوكينج” و”إلون مسك” فيجد أصداءًا واسعة. ويستدعي الناس موضوع فيسبوك الذي حدث ولقى صدى واسعًا سابقًا هذا العام، ويُخلق جوًا عامًا من أنه ينبغي أن نخاف أو على الأقل نتوجس! وبالمناسبة، في حوارات لاحقة، عبرت “صوفيا” عن كونها تحب البشر رغم أنها لا تعرف لماذا، ولا أرجح أنها غيرت رأيها لأن قناعاتها تغيرت. هو مجرد عرض إعلامي!

نهايةً، أستعرض سريعاً بعض الأسئلة المتكررة وإجاباتي عليها:

س: هل هناك تقدم كبير مؤخرًا في مجال الذكاء الاصطناعي؟

ج: نعم!

س: هل أصبح لدى البرامج والروبوتات القدرة على التعلم؟

ج: نعم… تتعلم من البيانات التي تغذى بها وأمثلة للسيناريوهات المحتملة، ومن التجربة بناءًا على نظام مكافئة وعقوبة يصممه علماء الحاسبات. وهذا كل ما في الأمر!

س: هل لديها إرادة حرة منفصلة عن مطوريها؟

ج: قطعًا لا! ولا حتى تقترب من هذا!

س: هل هناك مخاطر من استخدامها؟

ج: نعم، كأي من العلوم، يمكن تطويعه لمعالجة المرضى بشكل أكثر كفاءة وفعالية، أو صناعة السلاح الذي لا يخطئ.

س: هل تشكل خطرًا على البشرية؟

ج: حاليًا لا، ومستقبلًا غير محتمل أيضًا، سيظل الإنسان سابقًا التكنولوجيا التي يطورها بعدة خطوات دائمًا.

أختم أخيرًا باقتباس من حوار “يان لوكون” رئيس قسم أبحاث الذكاء الاصطناعي في شركة فيسبوك التي قامت بتطوير تجربة بوتات المحادثة في حواره الأخير مع مجلة “ذا فيرچ” قال فيه أن الطريق مازال طويلًا جدًا جدًا قبل أن تقترب أنظمة الذكاء الاصطناعي بأي درجة من ذكاء طفل أو حتى حيوان، وأنه يقدر كثيرًا إذا لم يمانع الصحافيون التوقف عن إرفاق صور فيلم Terminator مع المقالات المتعلقة بالذكاء الاصطناعي.

جهاد نجيب

باحثة في مجال علوم الحاسب والذكاء الاصطناعي ومدونة مصرية

الوسوم

جهاد نجيب

مدونة مصرية وباحثة في مجال علوم الحاسب والذكاء الاصطناعي

مقالات ذات صلة

اترك رد

هذا الموقع يستخدم Akismet للحدّ من التعليقات المزعجة والغير مرغوبة. تعرّف على كيفية معالجة بيانات تعليقك.

شاهد أيضاً

إغلاق