ويتنامى الخوف على الجنس البشري من ذكاء الآلات!

لنبدأ بالقرد «تشارلي» وهو عبارة عن روبوت شكله يشبهُ القرد، تمَّ الكشف عنه في شهر آذار 2014 في أحد أكبر معارض التكنولوجيا في مدينة هامبورغ الألمانية، حيث يمكن لتشارلي أن يمشي على أطرافه الأربعة، التي تتيحُ له التنقل في التضاريس الوعرة كتلكَ الموجودة على سطح القمر، كما يمكن له أيضاً أن يكونَ خطوة نحو الأمام في تدمير البشرية!
في الحقيقة ما زالت تفصلنا عقودٌ عن القدرةِ على تطويرِ حاسبٍ فائقٍ يمكن له أن يكونَ معتلاً نفسياً بحيث يملكُ تلك الشخصية العدائية التي يمكن لها أن تستعبدَ الجنس البشري، ومع ذلك فإن خبراءَ الذكاءِ الصنعي يعملون بالفعل لتجنب ما هو أسوأ، عندما تصبح الآلات أكثر ذكاءً من البشر.
دفعت هذه المخاوف خبراءَ الذكاءِ الصنعي في مختلف أنحاء العالم للتوقيع على رسالة مفتوحة تمَّ إطلاقُها مع بدايةِ هذا العام من خلال معهد مستقبل الحياة، يتعاهدون فيها على أن يتمَّ التطويرُ في مجال الذكاء الصنعي بشكلٍ آمنٍ وبحذر شديدٍ لضمانِ عدمِ خروج التطور في هذا المجال عن السيطرة البشرية، ومن أبرزِ الموقِّـعين على هذه الرسالة مؤسسي شركة أعماق العقل “Deep Mind”، وهي شركةٌ بريطانية متخصصة في الذكاء الصنعي قامت جوجل بشرائها في أوائل عام 2014، إضافةً إلى أساتذةِ معهد ماساتشوستس للتكنولوجيا “MIT”، وخبراء بعض أكبر الشركات التقنية، كفريق واتسن للحواسب الفائقة التابع لشركة IBM، وقسم البحوث في شركة مايكروسوفت.
تأتي هذه الرسالة بعد أن أصدرَ العديدُ من الخبراء تحذيراتٍ حول مخاطرِ الآلاتِ فائقةِ الذكاء، فقبل سنتين مضت، دعا ممثلُ الأمم المتحدة إلى فرضِ حظرٍ على إنتاجِ واستخدام أو حتى إجراءِ الاختبارات على ما يُسمَّى بأسلحةِ التحكمِ الذاتي التي يمكن لها تحديد الأهداف وتنفيذ الهجوم عليها من غير التدخل البشري، كما ثارت العديدُ من الانتقاداتِ الأخلاقية لاستخدامات أخرى للآلات الذكية، فعلى سبيل المثال إذا احتاجت مركبةٌ ذاتيةُ القيادةِ لأن تنحرف لتفادي الاصطدام فهل سيكون من المقبول أخلاقياً أن تقومَ الآلة باتخاذِ القرار فيما إذا كانت ستضحي بحياة مشاة أو راكبي دراجات متواجدين في الطريق لإنقاذ حياة الموجودين ضمن المركبة أم لا؟
بشكلٍ مماثل، أعرب كلٌّ من الفيزيائي الشهير «ستيفن هوكينغ» والمدير التنفيذي لشركة تسلا موتورز “Tesla Motors” «إيلون ماسك» عن مخاوفهم إزاءَ السماحِ للذكاء الصنعي بأن يعيث في الأرض فساداً، ففي مقال كتبه لصحيفة الإندبندنت صرح هوكينغ بأنه: “يمكن للمرء أن يتصورَ أنه بإمكانِ مثل تلك التقنيات أن تسيطرَ بذكائها على الأسواق المالية، وأن تتفوق في اختراعاتها على الباحثين من البشر، وأن تتمكنَ من معالجةِ القضايا بمعزل عن القيادات البشرية، وأن تقومَ بتطوير أسلحة لا يمكن لنا حتى أن نفهمها”. وأضاف قائلاً: “حيث يعتمدُ أثر الذكاء الصنعي على المدى القصير على من الذي يتحكم به، فإن أثره على المدى البعيد سيعتمد على ما إذا كان سيتاح لنا التحكم به أصلاً”، بمعنى أن تصبح الآلة الذكية خارجة تماماً عن السيطرة البشرية.
أما إيلون فقد أطلق في شهر آب الفائت تغريدته على تويتر يقول فيها: “علينا أن نكون حذرين وبشدة مع الذكاء الصنعي فمن الممكن أن يكون أكثر خطورة من الأسلحة النووية”، وكان قد صرح أيضاً للجمهور في معهد ماساتشوستس للتكنولوجيا في تشرين الأول: “أميل بشكل متزايد إلى أنه ينبغي أن يكون هناك بعض الإشراف التنظيمي على المستوى الوطني والدولي، فقط للتأكد من أننا لا نفعل شيئاً شديد الحماقة”.
مما يجدر ذكره أن معهدَ مستقبل الحياة هو منظمة بحثية من المتطوعين فقط، أسَّسها العشرات من علماء الرياضيات وخبراء علوم الحاسب في جميع أنحاء العالم، هدفها الأساسي هو التخفيف من المخاطر المحتملة لذكاء صنعي بمستوى الذكاء البشري، والذي يمكنُ له أن يتطورَ بشكلٍ مخيف، أما خطتها طويلة الأمد فهي وقف التعاملِ مع خطرِ الذكاء الصنعي على أنه ضرب من الخيال، والبدء سريعاً بمعالجة احتمال أن يتفوق على حدود إمكانياتنا، وأنه يوماً ما سوف يبدأ بالعمل بشكل يتضارب مع البرمجة الخاصة به.

المصدر : هنا

يستخدم هذا الموقع ملفات تعريف الارتباط لتحسين تجربتك. ستكون موافقتك افتراضية من خلال موقعنا ، ولكن يمكنك إلغاء الاشتراك إذا كنت ترغب في ذلك. قبول اقرأ المزيد

عاجــــــل