تقنيات الذكاء الاصطناعي: الجوانب الأخلاقية أخطر تحديات المستقبل

أجهزة روبوت في أحد معارض التكنولوجيا مصدر الصورة Getty Images
Image caption باتت تقنيات "الذكاء الاصطناعي" تؤثر على حياتنا حالياً أكثر من أي وقت مضى

باتت تقنيات "الذكاء الاصطناعي" تؤثر على حياتنا حالياً على نحوٍ أكثر أهمية من أي وقت مضى؛ وربما تتدخل فيها أيضا، ولذا يرى فريقٌ من الخبراء أن الوقت قد حان لأن يتدخل مفكرو علم الأخلاق وفلاسفته لضبط هذا الأمر.

أينما تلتفت ستجد تقنيات "الذكاء الاصطناعي"؛ التي وُجِدت بيننا لتبقى، وباتت تؤثر على غالبية جوانب حياتنا بشكل أو بآخر؛ بدءاً من اختيار أي كتب أو بطاقات سفر سنشتريها عبر شبكة الإنترنت، مروراً بتحديد ما إذا كانت طلبات التوظيف التي قدمها أيٌ منّا قد لاقت النجاح أم لا، وصولاً إلى تحديد ما إذا كان المرء مُستَحِقاً لقرضٍ مصرفي من عدمه، أو حتى طبيعة العلاج الذي يتعين الخضوع إليه من جانب مريضٍ ابْتُلي بالسرطان.

كل ما سبق ذكره وغيره كثير صار قابلاً لأن يُحدد الآن آلياً إلى حدٍ كبير عن طريق أنظمة برمجيات معقدة. فتقنيات "الذكاء الاصطناعي" قطعت خلال السنوات القليلة الماضية أشواطاً هائلة بشكل لافت للنظر. كما أن هذه التقنيات تنطوي على إمكانيات من شأنها جعل حياتنا أفضل، في نواحٍ كثيرة.

وقد بدا صعود نجم "الذكاء الاصطناعي" خلال الأعوام الأخيرة أمراً حتمياً. فقد خُصصت أموالٌ طائلة للشركات الناشئة العاملة في هذا المجال. كما أنشأت الكثير من شركات التكنولوجيا القائمة بالفعل، بما فيها مؤسساتٌ عملاقة مثل "أمازون" و"فيسبوك" و"مايكروسوفت"، مختبرات بحثية جديدة لتطوير تقنياتها على هذا الصعيد.

وفي ظل كل ذلك، لم يعد من قبيل المبالغة المفرطة القول إن البرمجيات الآن باتت تعني "الذكاء الاصطناعي" وليس سواه.

ويتوقع البعض أن تؤدي هذه التقنيات إلى حدوث تغيرات هائلة مماثلة في حجمها أو أكثر ضخامة، من تلك التي أحدثها ظهور وانتشار شبكة الإنترنت.

وفي هذا السياق؛ سألنا فريقاً من خبراء التكنولوجيا عن طبيعة ما يخفيه هذا العالم سريع التغير الذي يعج بالآلات الرائعة، في جعبته من مفاجآت لبني البشر. اللافت أن كل إجاباتهم تقريباً تمحورت حول الجانب القيمي والأخلاقي من هذا الأمر.

من بين هؤلاء، بيتر نورفيغ مدير الأبحاث لدى شركة "غوغل"، وأحد رواد ما يُعرف بـ"التعلم الآلي"، وهو فرعٌ لـ"الذكاء الاصطناعي" يعتمد على البيانات، ويقف وراء الكثير من النجاحات التي حققتها تلك التقنيات مؤخراً.

بالنسبة لـ"نورفيغ"، يتمثل الجانب المهم فيما يتعلق بمسألة "الذكاء الاصطناعي" في تحديد كيفية ضمان أن تعود هذه الأنظمة المعلوماتية الحديثة بالنفع على المجتمع ككل، دون أن تقتصر فوائدها على من يتحكمون فيها فحسب.

مصدر الصورة Getty Images
Image caption أثبتت تقنيات "الذكاء الاصطناعي" قدرتها على الاضطلاع بالكثير من المهام العملية

ويوضح الرجل بالقول: "برهنت تقنيات الذكاء الاصطناعي على كونها شديدة الفعالية على صعيد أداء مهام عملية؛ من إضافة تعليقات ومؤثرات إلى الصور، مروراً بفهم الحديث (المنطوق) وكتابة النصوص بلغة مفهومة وطبيعية على غرار ما يكتبه البشر (وليست كلمات مرصوصة إلى جانب بعضها البعض) وصولاً إلى المساعدة في التعرف على الأمراض. يتمثل التحدي الآن في التأكد من أن الجميع ينتفع من هذه التكنولوجيا".

لكن المشكلة الكبرى هنا تتمثل في أن تعقيد هذه البرمجيات، غالباً ما يعني استحالة التعرف على السبب الدقيق الذي يجعل نظاماً من أنظمة "الذكاء الاصطناعي" يؤدي الدور الذي يقوم به تحديداً.

فلم يعد بوسع المرء أن يميط اللثام عن تفاصيل هذه المنظومات وأخذ نظرة عن كثب لمكوناتها وللأجزاء التي تتحكم فيها وهي قيد التشغيل، وذلك في ضوء الطريقة التي تعمل بها في الوقت الحالي، وتعتمد فيها على تلك التقنية الناجحة بشكل هائل والمعروفة باسم "التعلم الآلي".

لذا نتقبل الأمر كما هو، ونبدي ثقتنا فيه. ليتمثل التحدي الذي نواجهه في هذه الحالة في استنباط طرق جديدة لمراقبة أو فحص ومراجعة المجالات الكثيرة للغاية، التي يضطلع "الذكاء الاصطناعي" فيها الآن بمثل هذا الدور الكبير.

وبنظر جوناثان زيتراين، أستاذ التشريعات القانونية المتعلقة بشبكة الانترنت في كلية الحقوق بجامعة هارفارد الأمريكية؛ ثمة خطرٌ ناجمٌ عن أن التزايد المطرد في تعقيد الأنظمة الحاسوبية قد يحول دون إمكانية إخضاع هذه الأنظمة لعمليات التدقيق الشديدة التي نحتاج إليها في هذا الصدد.

ويقول زيتراين: "أشعر بالقلق حيال تضاؤل استقلالية الإنسان، في ظل ما تتسم به أنظمتنا - مُدعومةً بالتكنولوجيا - من تعقيد متزايد وترابط على نحو محكم".

ويضيف بالقول إن إقدامنا على تطوير نظم "الذكاء الاصطناعي" مُتجاهلين ما ينطوي عليه الأمر من مخاطر في بعض الأحيان، ربما سيحدونا للشعور بالندم على الطريقة التي قد يتطور بها نظامٌ ما من هذه الأنظمة، وكذلك حيال عدم إفساح المجال بشكل واضح لكي يُوضع البعد الأخلاقي موضع الاعتبار في هذا الصدد.

ويساور مبعث القلق هذا أعضاء آخرين في فريق الخبراء الذي توجهنا له طلباً للمشورة. من بين هؤلاء؛ ميسي كمينغس مديرة أحد مختبرات جامعة ديوك بولاية نورث كارولاينا الأمريكية، والتي كانت من بين النسوة الأوُلْ اللواتي قُدنّ طائراتٍ مقاتلة تابعة للأسطول الأمريكي، وهي الآن خبيرة في الطائرات بدون طيار.

وتعبر كمينغس عن مخاوفها في هذا الشأن بطرح هذا السؤال: "كيف سيمكننا أن نُصادق على كون هذه المنظومات آمنة؟".

على أي حال، تحتاج تقنيات "الذكاء الاصطناعي" إلى إشراف ورقابة، ولكن لم تتضح بعد الطريقة المثلى لتحقيق ذلك على أرض الواقع.

وتقول كمينغس في هذا الصدد: "ليس لدينا في الوقت الحاضر أي نهجٍ متفقٍ عليه. دون وجود معيارٍ صناعيٍ لاختبار مثل هذه الأنظمة، سيكون من العسير تطبيق تلك التقنيات على نطاق واسع".

مصدر الصورة Getty Images
Image caption ستسمح تقنيات "الذكاء الاصطناعي" لـ"الروبوتات" بأداء مهام أكثر تعقيداً مثل ما يحدث في هذا المتجر الياباني الذي يتولى فيه "روبوت" خدمة الزبائن

لكن في عالمٍ سريع التغير والحركة كذاك الذي نعيش فيه؛ غالباً ما تجد الجهات المُوكل إليها القيام بأدوار تنظيمية أنها مثقلةٌ بالأعباء والواجبات.

وفي العديد من المجالات الحيوية، مثل النظام القضائي المختص بالقضايا الجنائية ونظام الرعاية الصحية، تبحث المؤسسات والشركات العاملة في هذين المجالين مدى فعالية الاستفادة من تقنيات "الذكاء الاصطناعي" لاتخاذ قرارات تتعلق بالإفراج المشروط عن بعض المحتجزين، أو تشخيص الأمراض.

لكن إلقاء هذه المهمة على كاهل بعض الآلات، يعني أننا نجازف بفقدان السيطرة. وفي هذه الحالة، من سيكون بمقدوره القول إن هذا النظام أو ذاك يتخذ القرار الصائب في القضايا المنوط به التعامل معها؟

تقول دانا بويد، وهي باحثة رئيسية في وحدة الأبحاث التابعة لشركة "مايكروسوفت"، إن هناك تساؤلات جدية بشأن القيم التي تتضمنها مثل هذه النظم التكنولوجية، وكذلك حول هوية المسؤول عنها في نهاية المطاف.

وتضيف بويد: "هناك رغبة متزايدة من قبل الجهات المُنَظِمة والمجتمع المدني والمُنظرين الاجتماعيين لرؤية هذه التقنيات وقد باتت تتسم بالعدالة وبالطابعيّن القيمي والأخلاقي، لكن هذه المفاهيم تتصف بالغموض في أفضل الأحوال".

وتشكل أماكن العمل إحدى المناطق التي تعج بالاعتبارات القيمية والأخلاقية المتعلقة باستخدام تقنيات "الذكاء الاصطناعي".

فالاستعانة بتلك التقنيات تسمح لـ"الروبوتات" بأداء وظائف أكثر تعقيداً، وبتسريح عددٍ أكبر من القوى العاملة البشرية. مثالٌ على ذلك، ما أعلنته مجموعة "فوكس كون تكنولوجي" الصينية - التي تزود شركتيّ "آبل" و"سامسونغ" ببعض المستلزمات - من أنها تسعى لأن تحل "الروبوتات" محل 60 ألف عامل تقريبا في مصانعها.

أما شركة "فورد" فقد وضعت تلك "الروبوتات" جنباً إلى جنب مع عمالها من البشر، في مصنعها بمدينة كولونيا الألمانية.

ويرى البعض أن شعور العمال بأن تلك الآلات تزيحهم من مواقعهم قد يُخلّف آثاراً غير مباشرة على صحتهم العقلية والنفسية

أكثر من ذلك، فإنه إذا كان تزايد التوجه نحو الاستعانة بالآلات على حساب العمالة البشرية يُخلّف تأثيراً كبيراً على أمورٍ مثل التوظيف والتشغيل؛ فإنه قد يترك كذلك تأثيرات غير مباشرة على الصحة العقلية والنفسية للبشر.

وفي هذا السياق، يقول إيزيكيل إيمانويل، المتخصص في أخلاقيات علم الأحياء، والذي كان مستشارا في مجال الرعاية الصحية للرئيس الأمريكي السابق باراك أوباما - إن النظر "إلى ما يعطي للبشر معنى في حياتهم، (يُظهر أن ذلك يتمثل) في ثلاثة أشياء: علاقاتٌ جادة وذات مغزى، واهتماماتٌ يتحمسون لها، وعملٌ هادف وذو معنى".

ويضيف إيمانويل: "يعد العمل الجاد ذو المغزى عنصرا مهما للغاية من (مكونات) هوية المرء". ويشير إلى أن المناطق التي فقد فيها العمال وظائفهم بسبب إغلاق المصانع قد تواجه تزايد خطر معدلات الانتحار، ونسبة تعاطي المخدرات، والإصابة بالاكتئاب.

مصدر الصورة Getty Images
Image caption صار العمال في الكثير من المصانع يعملون بالفعل جنباً إلى جنب مع "الروبوتات".

و تتمثل نتيجة ذلك في إمكانية أن نرى مطالبات بأن يضطلع المتخصصون في مجال القيم والأخلاق بدورٍ أكبر.

وهنا تقول كيت دارلينغ، المتخصصة في القانون والقيم والأخلاق بمعهد ماساتشوستس للتقنية: "تتبع الشركات المحفزات الموجودة في الأسواق التي تعمل بها. وهو ليس بالأمر السيئ، ولكن ليس بوسعنا الاعتماد على أن هذه الشركات ستتصرف على نحوٍ أخلاقي"، دون أن يعود ذلك عليها بمنفعة ما.

وتشدد دارلينغ على أهمية بلورة قواعد مُنَظِمة في هذا الصدد، على غرار ما هو معمولٌ به لحماية الخصوصية، أو ما يُتبع في أي مجال "يشهد استخدام تكنولوجيا جديدة، وقد فهمنا كيفية التعامل مع هذا الأمر".

وتشير دارلينغ إلى أن الكثير من الشركات الكبرى مثل غوغل؛ استحدثت بالفعل مجالس معنية ببحث الجوانب الأخلاقية المرتبطة بتطويرها لتقنيات "الذكاء الاصطناعي" وباستخدامها ونشرها لهذه التقنيات.

وهناك من يذهب للدعوة لأن يكون ذلك أكثر شيوعا وانتشارا. أما دارلينغ فتقول : "لا نريد خنق الابتكار، ولكن ربما نصل إلى مرحلة قد نرغب فيها في بلورة بعض البنى" التنظيمية في هذا الشأن.

ولا تزال التفاصيل شحيحة فيما يتعلق بهوية أعضاء مجلس القيم والأخلاقيات التابع لـ"غوغل" والدور الفعلي المنوط بذلك المجلس.

وفي سبتمبر/أيلول الماضي، أنشأت شركات "فيسبوك" و"غوغل" و"أمازون" اتحاد شركات (كونسورتيوم) بهدف إيجاد حلولٍ للمشكلات وسبل لمواجهة المخاطر المتعددة والمتنوعة التي يطرحها استخدام تقنيات "الذكاء الاصطناعي" فيما يتعلق بالسلامة والخصوصية.

كما تم تأسيس شركة بحثية غير هادفة للربح، تحمل اسم "أوبن آيه إل" بهدف تطوير تقنيات "ذكاء اصطناعي" مفتوحة المصدر والترويج لها، من أجل تحقيق صالح الجميع.

ويقول نورفيغ المسؤول في "غوغل" إن من الأهمية بمكان أن "يتم إجراء أبحاث بشأن التعلم الآلي بشكل علني وشفاف، وأن يجري توسيع رقعة انتشارها من خلال منشورات علنية وشفرة مفتوحة المصدر، وهو ما سيجعل بمقدورنا جميعاً تقاسم" المنافع الناجمة عن ذلك.

فمن المهم تشكيل فرق ولجان تضم خبراء في علم الأخلاق وفي التكنولوجيا بجانب مسؤولين تنفيذيين في الشركات العاملة في هذا المجالات؛ وذلك إذا ما كنا بصدد وضع معايير مهنية وصناعية وأخلاقية، فيما يتعلق باستخدام تقنيات "الذكاء الاصطناعي" وبلورة فهمٍ كامل بشأن ما هو موضوعٌ على المحك في هذا الصدد.

فالأمر يرتبط هنا بتسخير هذه التقنيات لتحسين أداء البشر، في أمورٍ يبذلون فيها بالفعل قصارى جهودهم.

في نهاية المطاف يقول زيتراين: "عملنا لا ينصب على القلقٍ إزاء قدرة إنسانٍ آلي من إحدى قصص الخيال العلمي على السيطرة، وإنما يرتبط أكثر بأن نرى كيف يمكن استخدام التكنولوجيا لتعزيز التفكير والتأمل البشريين، وعملية صنع القرار التي يقوم بها بني البشر"، لا أن تشكل تلك الأجهزة بديلاً للبشر في هذا الأمر بالكامل.

يمكنك قراءة الموضوع الأصلي على موقع BBC Future .

مواضيع ذات صلة

المزيد حول هذه القصة