السبت 11 مايو / مايو 2024

10 أسباب تدعو للقلق.. هل صُمّم الذكاء الاصطناعي ليبقى عندما نرحل؟

10 أسباب تدعو للقلق.. هل صُمّم الذكاء الاصطناعي ليبقى عندما نرحل؟

Changed

تقرير عن أول مؤتمر تعقده الروبوتات لطمأنة البشر وسط الحديث المتزايد عن أسباب تجعلنا نخاف من الذكاء الاصطناعي (الصورة: غيتي)
بين الخوف من المجهول، واستبدال البشر في الوظائف، وانتهاك الخصوصية، وصولًا إلى التهديد الوجودي للبشرية، تتنوّع الأسباب التي تجعلنا نخاف من الذكاء الاصطناعي.

خلال السنوات الأخيرة، اكتسب الذكاء الاصطناعي التوليدي قوة ملحوظة بحيث دخلت تقنياته في مختلف مجالات الحياة الاجتماعية والعلمية، ما جعله في الوقت نفسه مصدر قلق للكثيرين، بوصفه "تهديدًا للبشرية".

وتتمتّع خوارزميات الذكاء الاصطناعي بالقدرة على إنشاء محتوى أصلي وجذّاب، بما في ذلك الصور، والموسيقى، والنصوص التي لا يُمكن تمييزها عن المحتوى الذي ينشئه الإنسان.

ومن خلال قواعد المعرفة والقدرات المتزايدة باستمرار للتعلّم المستمر، يُحدث الذكاء الاصطناعي التوليدي ثورة في كيفية تفاعلنا مع الآلات، وفتح إمكانيات جديدة عبر الصناعات التي تتراوح من خدمة العملاء، والترفيه، إلى الكتابة الإبداعية والتعليم.

10 أسباب تدعو للقلق من الذكاء الاصطناعي

لكن، مع استمرار تقدّم هذه التكنولوجيا المتطوّرة، يجد عامة الناس أنفسهم في صراع مع الشكوك حول تداعياتها المحتملة، لأنّه لا يمكن فهم مدى القدرات التوليدية للذكاء الاصطناعي بشكل تام.

وفي هذا السياق، رصد موقع "ليست فيرس" (listverse.com) عشرة أسباب تجعلنا نخاف من الذكاء الاصطناعي الآن أكثر من أي وقت مضى.

الخوف من المجهول

تُسهم الوتيرة السريعة للتطوّر وإمكانية تجاوز الذكاء الاصطناعي الذكاء البشري في المستقبل في ارتفاع منسوب القلق، حيث يفكر الناس في الآثار والاعتبارات الأخلاقية المرتبطة بإنشاء كيانات يمكن أن تتجاوز القدرات البشرية أو تحل محلها.

ويتوقّع بعض الخبراء أن أنظمة الذكاء الاصطناعي عالية الاستقلالية القادرة على التفوّق على البشر، يمكن ابتكارها خلال العقود القليلة المقبلة، بينما يعتقد البعض الآخر أن الأمر قد يستغرق وقتًا أطول.

الكتب والأفلام تتنبأ بالمستقبل

ساهمت كل من هوليوود والكتب في إذكاء الخوف الذي يحيط بالذكاء الاصطناعي على مر السنين، مع تنفيذ العديد من الأفلام التي تصوّر سيناريوهات بائسة حيث تعمل تقنية الذكاء الاصطناعي، بما في ذلك الذكاء الاصطناعي التوليدي، خارج نطاق السيطرة.

وغالبًا ما تسلّط هذه الصور السينمائية الضوء على المخاطر المحتملة، والمعضلات الأخلاقية المرتبطة بالذكاء الاصطناعي، مع التركيز على موضوعات الاستعباد البشري، وفقدان السيطرة، والتهديدات الوجودية.

ونجحت أفلام مثل "Ex Machina"، و"Blade Runner"، و"The Matrix" في ترسيخ فكرة الذكاء الاصطناعي الخبيث في الثقافة الشعبية، ما أدى إلى تضخيم مخاوف الجمهور. كما تؤطر كائنات الذكاء الاصطناعي على أنّها مخادعة ومتلاعبة.

وسواء كانت مخاوفنا مدفوعة بدافعنا البيولوجي للبقاء، أو بالإثارة، فان تطوّر الذكاء الاصطناعي وعلاقته بالبشر لا يزالان غير واضحين حتى الآن.

استبدال البشر في الوظائف

الخوف من أن يحل الذكاء الاصطناعي التوليدي محل الوظائف البشرية هو مصدر قلق حقيقي، لأنّ الروبوتات لا تأكل، ولا تنام، ولا تحتاج إلى فترات راحة. أما بالنسبة للبشر، فوظائفنا هي معنى لبقائنا.

ومع تقدم التكنولوجيا، هناك مخاوف متزايدة من أن الأنظمة التي تعمل بالذكاء الاصطناعي ستعمل على أتمتة المهام التي يؤديها البشر تقليديًا، ما يؤدي إلى انتشار البطالة والاضطراب الاقتصادي.

وتثير قدرة الذكاء الاصطناعي التوليدي على محاكاة الإبداع البشري وإنتاج المحتوى، مثل الفن، أو الموسيقى، أو حتى المقالات المكتوبة، مخاوف بين المتخصّصين في تلك المجالات. بالإضافة إلى ذلك، تعمل أتمتة الصناعات المختلفة، مثل التصنيع أو خدمة العملاء أو النقل، على زيادة القلق بشأن الوظائف.

ومع ذلك، من المهم أن نتذكّر أنّ الذكاء الاصطناعي يفتح إمكانيات جديدة وفرصًا للابتكار. ولا يتمّ التركيز على حقيقة أنّ الذكاء الاصطناعي يمكنه زيادة القدرات البشرية، وتمكين الأفراد من التركيز على المساعي الأكثر تعقيدًا وإبداعًا.

وأظهر التاريخ أن التقدّم التكنولوجي غالبًا ما يؤدي إلى وجود صناعات جديدة وفرص عمل. ومن المهم ملاحظة أنّ التكيّف والاستعداد للتغيّر الطبيعي كان دائمًا السمة المميزة لأولئك الذين يظلون باستمرار على صلة وثيقة في عالم متغير.

تنظيم الذكاء الاصطناعي

يعد النقص الحالي في التنظيم القوي حول الذكاء الاصطناعي التوليدي مصدر قلق كبير لأسباب مختلفة. فمع تطور التكنولوجيا بشكل متزايد، تظهر الاعتبارات الأخلاقية والقانونية والمتعلقة بالسلامة، على مستوى تأثيرها المحتمل على المجتمع.

وبدون وجود لوائح مناسبة، هناك مخاطر أكبر لسوء استخدام أنظمة الذكاء الاصطناعي التوليدية وإساءة استخدامها، ولا تتوقف المسؤولية عند مقاطع الفيديو المزيفة.

وتنشأ المخاوف المتعلّقة بالخصوصية وأمن البيانات، لأنّ الذكاء الاصطناعي التوليدي غالبًا ما يعتمد على كميات هائلة من البيانات، ما يثير تساؤلات حول الملكية الفكرية، وحماية المعلومات الشخصية. ويفرض الافتقار إلى التنظيم تحديات في ضمان العدالة، والشفافية، والمساءلة في تطوير ونشر أنظمة الذكاء الاصطناعي التوليدية.

وبدون إرشادات مناسبة، هناك احتمال أكبر لنتائج متحيّزة أو تمييزية، ما يؤدي إلى تفاقم عدم المساواة المجتمعية القائمة. ويُعدّ وضع لوائح شاملة تُعالج هذه القضايا، أمرًا بالغ الأهمية لتسخير فوائد الذكاء الاصطناعي التوليدي، مع تقليل مخاطره المحتملة وحماية مصالح الأفراد والمجتمع ككل.

مخاوف قادة التكنولوجيا

ينبع تخوّف العديد من قادة التكنولوجيا، على غرار بيل غيتس وإيلون ماسك والأب الروحي للذكاء الاصطناعي جيفري هينتون، من التهديد الوجودي الذي تشكّله التكنولوجيا، من المخاطر المحتملة المرتبطة بتجاوز الذكاء الاصطناعي للذكاء البشري، والعواقب المحتملة للتقدّم غير المنضبط للذكاء الاصطناعي.

ويخشى هؤلاء من أنّ الذكاء الاصطناعي يمكن أن يتفوّق على التحكّم البشري، ما يؤدي إلى نتائج غير مقصودة أو حتى يشكّل مخاطر على رفاهية البشرية.

وتؤكد رؤاهم وتحذيراتهم على أهمية تطوير الذكاء الاصطناعي المسؤول والأخلاقي، ما يُشجّع على اتباع نهج مدروس يأخذ في الاعتبار المخاطر المحتملة، ويضمن الاستفادة من فوائد التكنولوجيا، مع تقليل الآثار السلبية المحتملة.

انتهاك الخصوصية

يتمتّع المساعدون الصوتيون المدعومون بالذكاء الاصطناعي التوليدي، مثل "سيري" و"أليكسا" بالقدرة على الاستماع إلى محادثاتنا. وأثار فضح المراقبة الواسعة النطاق للاتصالات الإلكترونية داخل الولايات المتحدة وخارجها، مخاوف كبيرة بشأن الخصوصية والحريات المدنية، وممارسات المراقبة الحكومية.

وخلال جائحة كوفيد 19، وصلت انتهاكات الأمن السيبراني إلى أعلى مستوياتها على الإطلاق، بسبب التطوّر المُتزايد لأنظمة الذكاء الاصطناعي، وقدرتها على معالجة وتحليل كميات هائلة من البيانات الشخصية.

ويستفيد مجرمو الإنترنت من قدرات الذكاء الاصطناعي في الأنشطة الشائنة التي تتراوح من عمليات التصيّد الاحتيالي المعقّدة، إلى إنشاء هويات مزيّفة مقنعة للغاية بغرض الاحتيال أو التجسّس.

وما يزيد من تآكل ثقة الجمهور وتهديد الخصوصية، أنّ أنظمة المراقبة التي تعمل بالذكاء الاصطناعي، بما في ذلك التعرّف على الوجه والتحليل السلوكي، لديها القدرة على مراقبة وتتبّع أنشطة الأفراد، وانتهاك حقّهم في الخصوصية.

ويثير جمع البيانات الشخصية وتحليلها بواسطة خوارزميات الذكاء الاصطناعي مزيدًا من المخاوف بشأن انتهاكات البيانات والوصول غير المصرّح به، ما قد يؤدي إلى سرقة الهوية والمخاطر الأخرى المتعلّقة بالخصوصية.

ومع استمرار تقدّم الذكاء الاصطناعي، يُعدّ وضع لوائح وضمانات قوية للخصوصية أمرًا بالغ الأهمية لضمان حماية المعلومات الشخصية للأفراد، والحفاظ على حقوق الخصوصية الخاصّة بهم في عالم يحرّكه الذكاء الاصطناعي.

تسليح الذكاء الاصطناعي

عند الحديث عن الهجمات الإلكترونية، أثبت الذكاء الاصطناعي أنّه سلاح قوي للغاية. وتشكّل قدرة الذكاء الاصطناعي التوليدي على إنشاء محتوى واقعي ومقنع للغاية، إلى جانب إمكانية التلاعب به، تهديدًا في مجال المعلومات المضللة والدعاية، ما يثير مخاوف أخلاقية كبيرة، إذ يمكن أن يؤدي ذلك إلى نشر روايات كاذبة، وتلاعب سياسي، واضطراب اجتماعي.

أكثر من ذلك، يؤدي تسليح الذكاء الاصطناعي التوليدي إلى تقويض الثقة والعمليات الديمقراطية، ويمكن أن يكون قادرًا على إحداث ضرر كبير على المستويات الفردية والمجتمعية وحتى الدولية.

ويؤكد هذا الأمر الحاجة الملحّة إلى وضع لوائح صارمة، وتدابير قوية للأمن السيبراني، كما إلى تعاون دولي لمواجهة المخاطر المحتملة ومنع إساءة استخدام الذكاء الاصطناعي التوليدي في سياق التسليح.

الاستحواذ من دون إشراف بشري مباشر

عام 2015، وقّعد العديد من الباحثين في مجال الذكاء الاصطناعي ما سُمّيت بـ"رسالة مفتوحة من الباحثين في مجال الذكاء الاصطناعي والروبوتات"، لتسليط الضوء على المخاوف بشأن تطوير الأسلحة المستقلّة والمخاطر المحتملة التي يشكّلها.

في تلك الرسالة، أكد الباحثون قدرة الذكاء الاصطناعي "المُسلّح" على اختيار الأهداف وإشراكها من دون تدخّل بشري، مع تسليط الضوء على المخاطر المحتملة والآثار الأخلاقية المرتبطة بهذه الأسلحة.

وبمجرد تفعيلها، يمكن لهذه الأنظمة أن تعمل بشكل مستقلّ، وتتّخذ قرارات يمكن أن يكون لها عواقب على الحياة والموت من دون إشراف بشري مباشر.

وتسلّط الرسالة الضوء على الحاجة إلى التعاون الدولي والتشريعات لضمان الاستخدام المسؤول لتقنيات الذكاء الاصطناعي والروبوتات في سياق الحرب.

كما يجادل هؤلاء بأنّه بدون المبادئ التوجيهية والقيود المناسبة، يمكن أن تؤدي الأسلحة المستقلّة إلى سباق تسلّح يُحرّكه الذكاء الاصطناعي، وانتشار أنظمة الذكاء الاصطناعي الفتّاكة، وتآكل السيطرة البشرية على الحرب.

واعتبارًا من مايو/ أيار 2023، لاحظت خدمة أبحاث الكونغرس أنّه "خلافًا لعدد من التقارير الإخبارية، لا تحظر سياسة الولايات المتحدة تطوير أو استخدام أنظمة الأسلحة الفتّاكة ذاتية التشغيل".

في الواقع، فان التوجيه الوحيد الصادر من وزارة الدفاع الأميركية هو أنّ جميع الأنظمة تسمح للمُشغّلين من البشر بممارسة الحكم البشري على استخدام القوة، وأنّ مشغّلي النظام والقادة يتمّ "تدريبهم بشكل كافٍ" على أنظمة الأسلحة الفتّاكة المستقلّة.

إذًا ما الذي يمنع الذكاء الاصطناعي المُسلّح من الانقلاب علينا؟

لا يمكن الاختباء من الذكاء الاصطناعي

يسمح الناس للآخرين برؤية ما يريدون عرضه، سواء على وسائل التواصل الاجتماعي أو شخصيًا. ولا شيء يجعل البشر يشعرون بالضعف أكثر من الكشف الكامل عن حياتهم. إنّ قدرات التعرّف على الوجه، والتحليل السلوكي للذكاء الاصطناعي، لديها القدرة على القيام بأكثر من مجرد انتهاك حقّنا في الخصوصية.

وتهدف التطوّرات المستمرّة في البحث والتطوير في مجال الذكاء الاصطناعي، إلى تحسين قدرات أنظمة الذكاء الاصطناعي على فهم البشر والتفاعل معهم. ويمكن لأنظمة الذكاء الاصطناعي الاستفادة من الكميات الهائلة من البيانات التي يتمّ جمعها للتعرّف على الأنماط، والتنبؤات بشأن السلوك البشري. وإذا كان الذكاء الاصطناعي يفهم كيف يعمل البشر، ولديه القدرة على مراقبة وتتبّع كل تحرّكاتنا، فهذا يمنحه ميزة على البشر لا يشعر معها معظم الناس بالراحة.

ومع الحد الأدنى من التنظيم لقدرات الذكاء الاصطناعي هذه، وبما أنّ الخوف من المجهول عادة يصعب التخلّص منها، ما الذي يضمن استخدام هذه التكنولوجيا بطريقة تحترم القيم والحقوق الإنسانية؟

تهديد لوجود البشرية

ويبقى الخطر الأكبر وسط كلّ ذلك، هو احتمال أن يُشكّل الذكاء الاصطناعي تهديدًا للوجود البشري، وهو الذي أضحى موضوع نقاش وتكهّنات مستمرة بين الخبراء.

ومن الصعب التنبؤ بالمستقبل على وجه اليقين، ولكن التأثير طويل المدى للذكاء الاصطناعي المتقدّم على البشرية يمثّل مصدر قلق كبير في الوقت الحالي.

ففي مايو من العام الحالي، نُشر بيان مفتوح يحثّ قادة العالم على التعامل مع الذكاء الاصطناعي بالحذر نفسه الذي يقاربون من خلاله تهديدات الانقراض الجماعي الأخرى، على غرار الأوبئة والحرب النووية.

ويعمل العديد من الباحثين والمنظمات بنشاط على سلامة وأخلاقيات الذكاء الاصطناعي، ويتمثّل أحد أهدافهم الأساسية في ضمان تطوير أنظمة الذكاء الاصطناعي لخدمة مصالح البشرية الفضلى والالتزام بها.

ويُعدّ توقّع المستقبل والمخاطر المحتملة المرتبطة بأنظمة الذكاء الاصطناعي المتقدّمة أمرًا صعبًا.

فهل سيحل الذكاء الاصطناعي مكاننا؟ وهل الذكاء الاصطناعي هو التطوّر الطبيعي ومستقبل البشرية؟ وعندما نرحل، هل ستبقى؟ 

المصادر:
العربي - ترجمات

شارك القصة

تابع القراءة
Close