تشير الحسابات إلى أنه سيكون من المستحيل التحكم في ذكاء اصطناعي فائق الذكاء
دراسة تقول من المستحيل التحكم في ذكاء الاصطناعي |
هل سنكون قادرين على التحكم في ذكاء فائق للكمبيوتر عالي المستوى؟
تم الحديث عن فكرة الإطاحة بالذكاء الاصطناعي للبشرية لعقود عديدة ، وفي جانفي 2021 ، أصدر العلماء حكمهم حول ما إذا كنا سنكون قادرين على التحكم في ذكاء فائق للكمبيوتر عالي المستوى. الاجابة؟ بالتأكيد لا.
المهم هو أن التحكم في ذكاء خارق يتجاوز بكثير الإدراك البشري يتطلب محاكاة هذا الذكاء الفائق الذي يمكننا تحليله. لكن إذا كنا غير قادرين على فهمها ، فمن المستحيل إنشاء مثل هذه المحاكاة.
لا يمكن وضع قواعد مثل "لا تسبب ضررًا للبشر" إذا لم نفهم نوع السيناريوهات التي سيأتي بها الذكاء الاصطناعي ، كما يقترح مؤلفو ورقة عام 2021. بمجرد أن يعمل نظام الكمبيوتر على مستوى أعلى من نطاق المبرمجين لدينا ، لم يعد بإمكاننا وضع حدود.
ماهو رأي الباحثون في هذا الأمر ؟
كتب الباحثون: "إن الذكاء الخارق يطرح مشكلة مختلفة اختلافًا جوهريًا عن تلك التي تدرس عادةً تحت شعار" أخلاقيات الروبوت " .
"هذا لأن الذكاء الخارق متعدد الأوجه ، وبالتالي يحتمل أن يكون قادرًا على تعبئة مجموعة متنوعة من الموارد من أجل تحقيق أهداف يحتمل أن تكون غير مفهومة للبشر ، ناهيك عن التحكم فيها."
اقرأ أيضا: هل منصة Telegram أمنة حقا؟
هل هذا الطرح وليد اليوم ؟
يأتي جزء من استدلال الفريق من مشكلة التوقف التي طرحها آلان تورينج في عام 1936. وتتركز المشكلة على معرفة ما إذا كان برنامج الكمبيوتر سيصل إلى نتيجة وإجابة أم لا (لذلك يتوقف) ، أو أنه ببساطة سيعقد إلى الأبد في محاولة للعثور على واحدة.
كما أثبت تورينج من خلال بعض الرياضيات الذكية ، بينما يمكننا أن نعرف أنه بالنسبة لبعض البرامج المحددة ، من المستحيل منطقياً إيجاد طريقة تسمح لنا بمعرفة ذلك لكل برنامج محتمل يمكن كتابته في أي وقت. هذا يعيدنا إلى الذكاء الاصطناعي ، والذي في حالة فائقة الذكاء يمكنه عمليا الاحتفاظ بكل برنامج كمبيوتر ممكن في ذاكرته في وقت واحد.
اقرأ أيضا: فيسبوك من موقع تواصل اجتماعي الى بيئة ثلاثية
ماهو البرنامج الذي يمنع الذكاء الاصطناعي من إلحاق الأذى بالبشر؟
أي برنامج مكتوب لمنع الذكاء الاصطناعي من إلحاق الأذى بالبشر وتدمير العالم ، على سبيل المثال ، قد يصل إلى نتيجة ويتوقف أم لا - من المستحيل رياضياً أن نتأكد تمامًا من أيٍّ من الحالتين ، مما يعني أنه غير قابل للاحتواء.
قال عالم الكمبيوتر إياد رهوان ، من معهد ماكس بلانك للتنمية البشرية في ألمانيا في جانفي : "في الواقع ، هذا يجعل خوارزمية الاحتواء غير قابلة للاستخدام" .
يقول الباحثون إن البديل لتعليم الذكاء الاصطناعي بعض الأخلاقيات وإخباره بعدم تدمير العالم - وهو أمر لا يمكن لأي خوارزمية أن تكون متأكدة تمامًا من القيام به - هو الحد من قدرات الذكاء الفائق. يمكن أن ينقطع عن أجزاء من الإنترنت أو من شبكات معينة ، على سبيل المثال.
لماذا لا يمكن انشاء برنامج مضاد ؟
ترفض الدراسة الأخيرة هذه الفكرة أيضًا ، مما يشير إلى أنها ستحد من وصول الذكاء الاصطناعي - تقول الحجة أنه إذا كنا لن نستخدمها لحل مشاكل خارج نطاق البشر ، فلماذا ننشئها على الإطلاق؟
متى يصل ذكاء خارق خارج عن سيطرتنا؟
إذا كنا سنمضي قدمًا في الذكاء الاصطناعي ، فقد لا نعرف حتى متى يصل ذكاء خارق خارج عن سيطرتنا ، وهذا هو عدم قابليته للفهم. هذا يعني أننا بحاجة إلى البدء في طرح بعض الأسئلة الجادة حول الاتجاهات التي نسير فيها.
هل هناك بالفعل آلات تؤدي مهامًا معينة بشكل مستقل دون أن يفهما المبرمجون ؟
قال عالم الكمبيوتر مانويل سيبريان ، من معهد ماكس بلانك للتنمية البشرية: " تبدو الآلة فائقة الذكاء التي تتحكم في العالم مثل الخيال العلمي" . "ولكن هناك بالفعل آلات تؤدي مهامًا مهمة معينة بشكل مستقل دون أن يفهم المبرمجون تمامًا كيف تعلموها."
ولذلك فإن السؤال الذي يطرح نفسه هو ما إذا كان هذا يمكن أن يصبح في مرحلة ما خارج نطاق السيطرة وخطيرًا على البشرية.
نُشر البحث في مجلة أبحاث الذكاء الاصطناعي في جانفي 2021.