أربعة أسباب لن تجعل الروبوت يحتل مكانك في العمل حاليا

جهاز روبوت مصدر الصورة Getty Images

سنعمل جميعا جنباً إلى جنب مع أجهزة الروبوت في وقت أقرب مما نعتقد. وهناك أربعة أشياء سوف تساعدنا على فهم تلك الأجهزة ودورها في أماكن العمل بصورة أفضل.

بالعودة إلى عام 1959، استخدم الذكاء الاصطناعي من خلال مجموعة من الخوارزميات المبهرة لحل مشكلة سابقة كان قد طال أمدها، ففي ذلك الوقت، كانت المكالمات الهاتفية بين الأماكن البعيدة مصحوبة بصدى صوت المتحدث الذي يعود ثانية إليه كلما تحدث.

لعبت تلك الخوارزميات دورا مهما في إصلاح الأمر من خلال معرفة متى تكون الإشارة القادمة مطابقة للإشارة الصادرة، ومن ثم مسحها الكترونياً. كان الحل في غاية الأناقة، ومازال مستخدماً حتى يومنا هذا.

كانت هذه الآلات تستخدم نظاما من الخوارزميات يعرف اختصاراً باسم "مادالاين". وكانت تلك المرة الأولى التي يستخدم فيها الذكاء الاصطناعي في مكان العمل.

لقد بات من الوارد اليوم على نطاق واسع أن أجهزة الكمبيوتر المزودة بالذكاء الاصطناعي قادمة للقيام بوظائفنا. وسوف تتمكن من إنهاء العمل المطلوب إنجازه على مدى الأسبوع قبل أن تتناول إفطارك.

وهي لا تحتاج إلى استراحة قهوة، أو راتب تقاعدي، أو حتى إلى النوم.

ورغم أنه سيوكل إلى الآلة القيام بالعديد من الوظائف في المستقبل، إلا أنه على المدى القصير على الأقل من الأرجح أن هذه الآلات المتطورة ستعمل معنا جنباً إلى جنب.

على الرغم من الإنجازات المبهرة على صعيد العديد من المهن، بما فيها القدرة على وقف التزوير قبل أن يقع، ورصد مرض السرطان بدقة، إلا أنه حتى أكثر آلات الذكاء الاصطناعي في هذه الأيام لا تملك ما يقترب من الذكاء العام للإنسان.

وحسب تقرير لمؤسسة مكنزي لعام 2017، فإنه مع التكنولوجيا المتوفرة يمكن فقط أن تصبح خمسة في المئة من الوظائف آلية بشكل كامل، لكن 60 في المئة من الوظائف يمكن أن تؤدي أجهزة الروبوتات ما يقرب من ثلث مهامها.

ومن المهم أن نتذكر أنه ليس جميع الروبوتات تستخدم الذكاء الاصطناعي، كما أن نفس القصور الذي يمنع هذه الآلات التي تستخدم الذكاء الاصطناعي من السيطرة على العالم، سيجعل منها أيضاً شركاء عمل مثيرين للإحباط.

مصدر الصورة Getty Images
Image caption يتوقع مكنزي أن خمسة في المئة من الوظائف يمكن أن تصبح آلية بشكل كامل في المستقبل، لكن 60 في المئة من الوظائف يمكن أن تؤدي أجهزة الروبوتات ما يقرب من ثلث مهامها.

لذا، قبل أن نراهن على غياب شمسنا كبشر في أماكن العمل، نعرض فيما يلي بعض القواعد التي تحتاج لمعرفتها فيما يتعلق بالعمل مع زملائك الجدد من الروبوتات.

القاعدة الأولى: الروبوتات لا تفكر كالبشر

في حدود الوقت الذي كان نظام "مادالاين" للذكاء الاصطناعي يحدث ثورة في المكالمات الهاتفية بعيدة المدى، كان الفيلسوف البريطاني المجري مايكل بولاني يفكر ملياً في الذكاء البشري. وقد أدرك أنه بينما يمكن لبعض المهارات مثل استخدام قواعد اللغة الدقيقة أن تقسم إلى قواعد يمكن شرحها للآخرين، إلا أن كثيراً منها لا يمكن تقسيمه أو تجزئته.

ويمكن للبشر القيام بما يسمى القدرات الضمنية دون إدراك كيفية حدوث ذلك. ويشمل ذلك القدرات العملية مثل ركوب دراجة، و إعداد العجين، وكذلك القيام بمستوى أعلى من المهمات. وللأسف، إذا لم نعرف مثل هذه القواعد، فلا يمكننا تعليمها للكمبيوتر. وهذه هي المفارقة التي يتحدث عنها بولاني. وبدلاً من محاولة إجراء هندسة عكسية للذكاء البشري، حاول علماء الكمبيوتر التغلب على تلك المشكلة بتطوير ذكاء اصطناعي للتفكير بطريقة مختلفة تماماً تعتمد فيها على البيانات أو المعلومات، بدلاً من الأفكار.

يقول ريتش كاروانا، كبيرالباحثين في مؤسسة ميكروسوفت للأبحاث: "ربما خطر ببالك أن الطريقة التي يعمل بها الذكاء الاصطناعي هي أننا نفهم البشر، ومن ثم نبني الذكاء الاصطناعي بنفس الطريقة تماماً".

ويضيف: "لكن الأمور لم تحدث بتلك الطريقة". وهو يضرب مثلاً بالطائرات التي اخترعت قبل وقت طويل من امتلاكنا فهماً تفصيلياً للطيران لدى الطيور، ولذلك امتلكنا ديناميكيات طيران مختلفة. ومع ذلك لدينا اليوم طائرات بإمكانها التحليق أعلى وأسرع من الطيور.

وعلى سبيل المثال، أعد موقع فيسبوك تدريبا لبرنامجه الخاص بالتعرف على الوجه، والذي يعرف باسم "ديب فيس"، للتعرف على مجموعة من أربعة ملايين صورة تقريبا. وعن طريق النظر إلى صور موسومة، أو مكتوب عليها اسم نفس الشخص، تمكن ذلك البرنامج في نهاية الأمر من المزاوجة بين الوجوه بطريقة صحيحة في حوالي 97 في المئة من الأوقات.

إن العوامل المتوفرة لبرامج الذكاء الاصطناعي مثل "ديب فيس" تجعل منها نجوما صاعدة في سماء وادي السليكون، وهي تتغلب على مخترعيها في قيادة السيارات، والتعرف على الصوت، وترجمة النصوص المكتوبة من لغة لأخرى، وبالطبع وضع علامات على الصور. ويتوقع أن تخترق مثل هذه البرامج مجالات متعددة في المستقبل، بداية من الرعاية الصحية إلى النشاط المالي.

القاعدة الثانية: أصدقاؤك الجدد من الروبوتات ليسوا معصومين

فهذه الأجهزة ترتكب الأخطاء أيضا، لكن فكرة أنها تستند إلى المعلومات يعني أنها يمكن أن ترتكب أخطاء فادحة، مثل المرة التي استنتج فيها برنامج آلي أن سلحفاة مطبوعة بخاصية الطباعة ثلاثية الأبعاد هي بندقية.

مصدر الصورة Getty Images
Image caption يحاول كي جاي، البالغ 19 عاماً، وهو أفضل لاعب بشري في العالم للعبة "غو"، هزيمة برنامج الذكاء الاصطناعي "ألفا غو" أثناء مباراة تتطلب تحديا في التفكير العميق

فهذا البرنامج مثلا لا يمكنه التفكير بطريقة عملية، لأنه يفكر وفقا لأنماط محددة، وفي هذه الحالة، تعتمد الأنماط البصرية هنا على البكسل (وهو أصغر عنصر منفرد في مصفوفة الصورة الرقمية).

ونتيجة لذلك، فإن تغيير بكسل واحد في صورة من الصور يمكن أن يؤدي إلى مثل هذا الفشل في التعرف عليها.

القاعدة الثالثة: الروبوت لا يمكن أن يفسر لماذا اتخذ قراراً

تتمثل المشكلة الأخرى في الذكاء الاصطناعي في المفارقة التي تحدث عنها بولاني. فلأننا لا نفهم تماماً كيف تتعلم أدمغتنا، قمنا بجعل الذكاء الاصطناعي يفكر مثل الإحصائيين. والمفارقة هي أننا نملك الآن فكرة محدودة جداً عما يجري داخل أدمغة الذكاء الاصطناعي.

ونطلق على ذلك الوضع في العادة "مشكلة الصندوق الأسود"، لأنه على الرغم من معرفتنا بالمعلومات أو البيانات التي نغذيها للروبوت، ونرى النتائج التي تصدر عن ذلك، فإننا لا نعرف كيف يتوصل ذلك الصندوق الذي أمامنا لهذه النتائج.

ويقول كاروانا: "وهكذا فإن لدينا نوعان من الذكاء الذي لا نفهمه حقاً". فمثل هذه الشبكات العصبية الآلية لا تملك مهارات لغوية، ولذلك لا يمكنها أن تشرح لك ما الذي تفعله ولماذا. وكما هو الحال في كل أجهزة الذكاء الاصطناعي، فإنها ليس لديها القدرة على الفهم والمنطق المتوفرة لدى الإنسان.

قبل عدة عقود قام كاروانا بتطبيق برنامج للذكاء الاصطناعي على بعض البيانات الطبية. وشمل ذلك أشياء من قبيل الأعراض المرضية، ونتائجها، وكان الهدف هو حساب مدى خطر الموت الذي قد يتعرض له المريض في يوم معين، بحيث يمكن للأطباء اتخاذ تدابير وقائية.

وكان يبدو أن الأمور تسير على ما يرام، إلى أن لاحظ طالب في جامعة بيتسبيرغ ذات ليلة شيئاً غريباً. فقد كان يعالج نفس البيانات سطراً بسطر عن طريق قواعد خوارزمية أكثر بساطة، لكي يتمكن من قراءة منطقها في عملية اتخاذ القرار. وكانت إحدى القراءات تقول: "الربو جيد بالنسبة لك إذا كان لديك التهاب رئوي". لكن الأطباء تعجبوا من مثل هذا الخطأ، وقالوا إنه يجب إصلاحه.

فالربو يشكل عاملاً خطيراً في الإصابة بالإلتهاب الرئوي، حيث أن كلاهما يؤثر على الرئتين. ولن يعرف الأطباء على وجه التأكيد لماذا تعلمت الآلة هذه القاعدة.

ومع زيادة الاهتمام باستعمال الذكاء الاصطناعي لمصلحة العامة، يساور القلق العديد من الخبراء في هذا المجال. فقد فرض الاتحاد الأوروبي هذا العام تشريعات جديدة تعطي الأفراد الحق في الحصول على تفسير للمنطق الكامن وراء قرارات أجهزة الذكاء الاصطناعي.

وفي غضون ذلك، تعكف الذراع البحثية للجيش الأمريكي، وهي وكالة مشاريع البحث الدفاعية المتقدمة (داربا) على استثمار 70 مليون دولار في برنامج جديد لتفسير وشرح قرارات أجهزة الذكاء الاصطناعي.

مصدر الصورة Getty Images
Image caption بعض الروبوتات التي تستخدم الذكاء الاصطناعي يتم تعليمها بحيث يمكن استخدامها في مجال الرعاية الصحية

"في الآونة الأخيرة، يوجد تحسن كبير في مدى دقة هذه الأنظمة"، كما يقول ديفيد غانينغ، الذي يدير المشروع في داربا. ويضيف: "لكن الثمن الذي ندفعه لذلك هو أن هذه الأنظمة في غاية التعقيد لدرجة أننا لا نعرف لماذا توصي بشيء معين، أو لماذا تقوم بحركة معينة في لعبة من الألعاب".

القاعدة الرابعة: الروبوتات يمكن أن تكون منحازة

هناك قلق متزايد من أن بعض الخوارزميات ربما تخفي انحيازات غير مقصودة، مثل العنصرية، والتمييز على أساس الجنس. فعلى سبيل المثال، في الآونة الأخيرة كلفت برمجية من البرمجيات بتقديم المشورة حول ما إذا كان من المرجح أن يعيد المجرم المدان الكرة في ممارسة الجريمة، فكانت النتيجة أن المشورة جاءت مضاعفة في قسوتها بخصوص ذوي البشرة السوداء.

الأمر كله يتعلق بكيفية تدريب المنظومات الرقمية. فإذا كانت البيانات التي غذيت بها الأجهزة سليمة وخالية من الشوائب، فإن قراراتها ستكون في الغالب سليمة. لكن عادة هناك تحيزات بشرية موجودة أثناء عملية تغذية المعلومات.

وأحد الأمثلة الصارخة يمكن الوقوف عليه بسهولة في خدمة "غوغل" للترجمة، فكما أشار أحد العلماء في مجلة ميديام العام الماضي، إذا أردت ترجمة "هو ممرض. هي طبيبة" من الإنجليزية إلى اللغة المجرية، ثم أعدت ترجمتها إلى الإنجليزية ستكون النتيجة التي تعطيها الخوارزمية: "هي ممرضة. هو طبيب".

لقد تم تدريب الخوارزمية على نص مكون من حوالي تريليون صفحة إنترنت. ولكن كل ما تستطيع هذه البرامج فعله هو أن تعثر على أنماط محددة، من قبيل أن الأطباء على الأرجح يكونوا ذكوراً، وأن الممرضين على الأرجح يكون إناثاً.

وهناك طريقة أخرى يمكن أن يتسلل منها الانحياز، من خلال الوزن. فكما هو الحال لدى البشر، يقوم زملاؤنا من روبوتات الذكاء الاصطناعي بتحليل المعلومات (البيانات) عن طريق "وزنها"، أي الحكم على القضايا والاعتبارات من حيث كونها أكثر أو أقل أهمية.

وربما تقرر خوارزمية ما أن الرمز البريدي لشخص ما له علاقة بنسبة اعتماده المالي، أو البنكي، وهو أمر يحدث في الولايات المتحدة، ويتم عن طريقه التمييز ضد الأقليات العرقية، التي تميل للعيش في أحياء فقيرة.

وهذا لا يتعلق فقط بالعنصرية أو التمييز على أساس الجنس. وسيكون هناك أيضاً تمييز لم يكن يخطر على البال. ويشرح هذه المعضلة بشكل جيد الخبير الاقتصادي دانيال كاهنيمان، الحاصل على جائزة نوبل، والذي قضى حياته في دراسة الانحيازات غير العقلانية في الذهن البشري، وذلك في مقابلة مع مدونة "فريكونوميكس" عام 2011.

يقول كاهنيمان: "طرق الاستدلال بطبيعتها الخاصة سينتج عنها انحيازات، وهذا الأمر صحيح بالنسبة للإنسان ولآلة الذكاء الاصطناعي، لكن الاستدلال بالنسبة للذكاء الاصطناعي ليس بالضرورة هو الاستدلال البشري".

الروبوتات قادمة، وسوف تغير مستقبل العمل إلى الأبد. لكن إلى أن تصبح قريبة الشبه أكثر بالإنسان، فهي ستكون بحاجتنا للوقوف بجانبها. لكن يبدو بشكل لا يصدق أن زملاءنا من الروبوتات سيحسنون من الطريقة التي نظهر بها أمام الآخرين.

يمكنك قراءة الموضوع الأصلي على موقع BBC Capital

المزيد حول هذه القصة