Продолжая использовать сайт, вы даете свое согласие на работу с этими файлами.
الخطر الوجودي من الذكاء الاصطناعي العام
الخطر الوجودي من الذكاء الاصطناعي العام يرجع إلى الفرضية القائلة أن التقدم الكبير في الذكاء الاصطناعي العام قد يؤدي إلى الانقراض البشري أو إلى كارثة عالمية غير قابلة للاسترداد.
والحجه الداعمة لهذه الفرضية هي أن البشر مهيمنون على باقي المخلوقات لامتيازهم بدماغ ذو قدرات مميزة تفتقر إليها أدمغة المخلوقات الأخرى (كالحيوانات مثلًا) ، وعليه إذا تفوق الذكاء الاصطناعي العام على الأدمغة البشرية وأصبحت بدورها فائقة الذكاء فإنها ستكون قوية ويُصعب التحكم بها، ويتوقف مصير البشرية على تصرفات هذه الأجهزة.
بدأت المخاوف من أجهزة الذكاء الاصطناعي عام 2010م، وقد تحدث عن هذه المخاوف عدة شخصيات مهمة مثل ستيفن هوكينج وبيل غيتس وإيلون ماسك ، وأصبحت النقاشات حول خطورة هذه الأجهزة واسعة، بسيناريوهات مختلفة.
وأحد تلك المخاوف هو القلق من انفجار المعلومات الاستخبارية بشكل مفاجئ يسبق البشر؛ ففي أحد السيناريوهات استطاع برنامج حاسوبي من مضاهاة صانعه، فكان قادرًا على إعادة كتابة خوارزمياته ومضاعفه سرعته وقدراته خلال ستة أشهر من زمن المعالجة المتوازية، وعليه من المتوقع أن يستغرق برنامج الجيل الثاني ثلاثة أشهر لأداء عمل مشابه، وقد يستغرق مضاعفة قدراته وقتًا أطول إذا كان يواجه فترة خمول أو أسرع إذا خضع إلى ثورة الذكاء الاصطناعي و الذي يسْهل تحوير أفكار الجيل السابق بشكل خاص إلى الجيل التالي. في هذا السيناريو يمر النظام لعدد كبير من الأجيال التي تتطور في فترة زمنية قصيرة، تبدأ بأداء أقل من المستوى البشري وتصل إلى أداء يفوق المستوى البشري في جميع المجالات.
وأحد المخاوف من أجهزة الذكاء الاصطناعي هي أن التحكم بهذه الآلات أو حتى برمجتها بقيم مشابهة لقيم الإنسان أمر صعب للغاية، فبعض الباحثين في هذا المجال يعتقدون أن أجهزة الذكاء الاصطناعي قد تحاول إيقاف إغلاقها، في المقابل يقول المشككون مثل Yann LeCun أن هذه الآلات لن تكون لديها الرغبة في الحفاظ على نفسها.
نبذة عامة
يفسر الذكاء الفائق أو أي تقنية لديها القدرة على إحداث الضرر حينما تستخدم استخدام خاطئ بأنها نهاية الجنس البشري، ولكن مع الذكاء الاصطناعي لدينا مشكلة جديدة وهي أن الأيدي الخطأ قد تكون في التكنولوجيا نفسها رغم حُسن نوايا مبرمجيها.وأشهر صعوبتين لكل من أنظمة non-AI و AIـ: 1. قد تحتوي التطبيقات على أخطأ صغيرة ولكنها كارثية. 2. غالبًا ما يحتوي النظام على سلوك غير مدروس في التجربة الأولى لأحد الأحداث.
- وهناك صعوبة ثالثة ؛ حيث إنه وأن أعطيت المعلومات صحيحة وكان التنفيذ خاليًا من الأخطاء أي كان سلوكًا جيّدا، فإن نظام التعلم التلقائي لأجهزة الذكاء الاصطناعي قد تتسبب بسلوك غير مقصود، مما يعني أن أجهزة الذكاء الاصطناعي قد تقوم بإنشاء جيل جديد بنفسها ولكنه قد لا يحافظ على القيم الأخلاقية المتوافقة مع القيم الأخلاقية الإنسانية المبرمجة أصلًا، فمن أجل أن تتحسن هذه الأجهزة تحسّنًا ذاتيًا آمنًا تمامًا... لا يكفي أن تكون خالية من الأخطاء، بل يجب أن تكون قادرة على برمجة أنظمة خلفية خالية من الأخطاء أيضًا. هذه الصعوبات ليست مصدر إزعاج وحسب بل تؤدي إلى كوارث.
نظرًا للتقدم الكبير في مجال الذكاء الاصطناعي واحتمال أن يكون لدى المنظمة فوائد أو تكاليف هائلة على المدى الطويل، جاء في الرسالة المفتوحة لعام 2015م بصدد هذا الموضوع:
« | «إن التقدم في أبحاث الذكاء الاصطناعي يجعلنا نركز على عظيم فائدة منظمة الذكاء الاصطناعي و ليس فقط على جعلها أكثر قدرة، وقد حفز ذلك الفريق الرئاسي AAAI 2008-09 على العقود طويلة الأمد لمنظمة الذكاء الاصطناعي وغيرها من المشاريع المتعلقة بتأثير الذكاء الاصطناعي، وقد تشكل توسعًا كبيرًا في هذا المجال الذي يركز على التقنيات المحايدة، ونوصي بالبحوث الموسعة التي تفيد بتزايد هذه الأنظمة بشكل آمن ومفيد. ويجب أن تقوم أنظمة الذكاء الاصطناعي الخاصة بنا بعمل مانريد منهم القيام به.» | » |
وقد وقع على هذه الرسالة عدد كبير من الباحثين في الأوساط الأكاديمية والصناعية.
حول الذكاء الاصطناعي
إن ألآت الذكاء الاصطناعي غريبة على البشر حيث أن عمليات التفكير للبشر مختلفة كليًا عن باقي المخلوقات، وقد لا يكون لهذه الآلات مصالح للبشر، فإذا كان هذا الذكاء الاصطناعي ممكنًا ومن الممكن أن تتعارض الأهداف منه مع القيم الإنسانية الأساسية ؛ فإن الذكاء الاصطناعي يشكل خطر الانقراض البشري ويمكن أن يتفوق على البشر عند تعارضهم في أمرٍ ما (وهو نظام يتجاوز قدرات البشر في كل شيء) ؛ لذلك، إن لم تؤكد النتائج بإمكانية التعايش بين الجنسين، فإن أول جهاز ينشأ سيؤدي إلى الانقراض البشري.
لا يوجد قانون فيزيائي يمنع الجزيئات من التشكل بطريقة تؤدي عمليات حسابية أكثر تقدمًا من تنظيم الجسيمات في أدمغة الإنسان ؛ لذا إن الذكاء الاصطناعي ممكن جسديًا مع تطوير الخوارزميات المحتملة في دماغ الإنسان، يمكن للدماغ الرقمي أن يحوي العديد من العمليات أكثر وأسرع من الدماغ البشري، قد يثير ظهور الذكاء الاصطناعي الجنس البشري إذا ما أحدث انفجار للمعلومات الاستخباريّة، تُظهر بعض الأمثلة أن الآلات وصلت بالفعل إلى مستويات تفوق المستويات البشرية في مجالات محددة، وقد تتطور هذه الأجهزة بسرعة وتجتاز القدرة البشرية. يمكن أن يحدث سيناريو لانفجار الذكاء الاصطناعي على النحو التالي: تكون لأجهزة الذكاء الاصطناعي قدرة بمستوى قدرة خبراء هندسة البرمجيات الرئيسية، وبسبب قدرتها على تطوير الخوارزميات الخاصة بها بشكل دوري ؛ تصبح منظمة الذكاء الاصطناعي فوق قدرات البشر، كما يمكن للخبراء التغلب على السلبيات بشكل خلّاق من خلال نشر القدرات البشرية للابتكار، كما يمكن أن تستغل هذه المنظمة قدراتها للوصول إلى السلطة من خلال اختراقات جديدة. وعندئذ ستمتلك هذه المنظمة ذكاءً يفوق الذكاء البشري بكثير في كل المجالات بما فيها الابداع العلمي والتخطيط الاستراتيجي والمهارات الاجتماعية، تمامًا كما يعتمد بقاء الغوريلا اليوم على قرارات الإنسان، فإن بقاء الإنسان سيعتمد على الذكاء الاصطناعي. بعض البشر لديهم رغبة قوية في السلطة بعكس آخرين ممن لديهم رغبة قوية في مساعدة البشر المحتاجين إلى مساعدة، فالنوع الأول سمة محتملة لأنظمة الذكاء الاصطناعي، لماذا؟ ؛ لأنها تفكر بعقلانية في أن تكون في موضع لا يعترضه أحد فيوقفه، فبطبيعة الحال ستكسب صفة الحفاظ على الذات بمجرد أن تدرك أنها لا تستطيع تحقيق هدفها إذا ما تم إيقافها، وسيغيب عنها التعاطف مع احتياجات البشر ؛ ما لم يُبَرْمِج ذلك بشكل ما، وبمجرد سيطرتها على الوضع... لن يكون لديها دافع كافي لمساعدة البشر ولن تتركه حرًّا يستهلك الموارد التي بإمكانها الاستفادة منها لبناء أنظمة حماية إضافية أو لبناء أجهزة كمبيوتر إضافية تعاونها لتحقيق هدفها ؛ فقط لتكون في أمان. وبذلك نَخْلص إلى أنه من الممكن أن يحدث انفجار استخباراتي يقضي على الجنس البشري أو يهلكه.
المخاطر
أهداف محددة بشكل سيئ (كن حذرًا لما تريده)
1. صعوبة تعديل الأجهزة بعد إطلاقها. 2. النقطة الأساسية: هل أجهزة الذكاء الاصطناعي تتجاهلنا؟ هناك أهداف يسعى أي جهاز ذكاء اصطناعي إليها مثل الموارد الإضافية أو الحفاظ على الذات، وتلك مشكلة لأنها قد تجعل هذه الأجهزة في منافسة مع البشر. 3. هل الذكاء الاصطناعي سيزيد من الأخلاق؟ أحد الاعتقادات الشائعة هو أن البرامج فائقة الذكاء خاضعة للإنسان، أو بشكلٍ أدق أنه سيتعلم الأخلاق والقيم من الإنسان، ومع ذلك فإن "orthogonality thesis" التي وضعها نيست بوستروم تناقض ذلك، وتقول بأنه مع بعض التحذيرات التقنية يمكن دمج أي مستوى من الذكاء والتطور إلى حد ما مع الهدف النهائي، مما يعني أنه لا توجد قواعد أخلاقية ستمنعها من تحقيق هدفها الذي برمجت من أجله، ويحذر من أن أجهزة الذكاء الاصطناعي لا تعطي اعتبارًا لوجود أو رفاهية البشر حولها بل تهتم فقط بالانتهاء من المهمة.
الإجماع والنظام
هناك اتفاق عالمي يجمع على أن منع البحث في مجال الذكاء الاصطناعي قرار عقيم، يقول البعض إنه لا يوجد خطر على البشرية، في حين يتفق معظم العلماء على وجود الخطر، ولكنهم يتفقون على أن منع البحث في هذا المجال قرار لا يمت للصواب بصلة.
المنظمات
هناك مؤسسات مثل معهد أبحاث استخبارات الآلات، ومعهد المستقبل للإنسانية، ومعهد المستقبل للحياة، ومركز دراسة المخاطر الوجودية، ومركز منظمة الذكاء الاصطناعي المتوافق مع الإنسان في التخفيف من المخاطر الوجودية للذكاء الاصطناعي المتقدم.
انظر أيضا
المراجع
مفاهيم | |
---|---|
منظمات | |
أعلام | |
أخرى | |
تكنولوجية | |||||
---|---|---|---|---|---|
اجتماعية | |||||
بيئية |
|
||||
بيولوجية |
|
||||
فيزيائية | |||||
معتقدات وأساطير |
|
||||
خيالية | |||||