دستور نيوز

روث تشانغ * – (رجل الدولة الجديد) 2/16/2021
ترجمة: علاء الدين أبو زينة
في الوقت الحالي ، يقوم الذكاء الاصطناعي بتشخيص السرطان ، ويقرر ما إذا كنت ستأخذ وظيفتك التالية ، ويوافق على رهنك العقاري ، ويحكم على المجرمين ، ويتداول في سوق الأوراق المالية ، ويملأ موجز الأخبار ، ويحميك من الاحتيال ، ويكون رفيقك عندما تشعر بالإحباط.
قريباً ، سوف يقودك إلى المدينة ، وعلى الطريق يقرر ما إذا كان سيوقع وينحرف لتجنب ضرب ثعلب ضال. سيخبرك أيضًا بكيفية ترتيب يومك ، والمهنة التي تناسب شخصيتك – وحتى عدد الأطفال الذين ستنجبهم.
وفي المستقبل الأبعد قليلاً ، يمكن للذكاء الاصطناعي علاج السرطان ، والقضاء على الفقر والمرض ، والقضاء على الجريمة ، ووقف الاحتباس الحراري ، والمساعدة في استعمار الفضاء. يرسم Fei-Fei Li ، وهو تقني بارز في جامعة ستانفورد ، صورة وردية: “أتخيل عالماً يجعلنا فيه الذكاء الاصطناعي نعمل بشكل أكثر إنتاجية ، ونعيش لفترة أطول ولدينا طاقة أنظف.” هذا التفاؤل العام بشأن الذكاء الاصطناعي يشاركه باراك أوباما ومارك زوكربيرج وجاك ما ، من بين آخرين.
ومع ذلك ، كان لدى الذكاء الاصطناعي منذ البداية مخاوف كبيرة.
ماذا لو طور الذكاء الاصطناعي ذكاءً يتجاوز ذكاءنا؟ حذر ستيفن هوكينغ من أن “الذكاء الاصطناعي يمكنه تطوير إرادته الخاصة ؛ إرادة تتعارض مع إرادتنا ويمكن أن تدمرنا “. ونحن جميعًا على دراية بالحبكة النموذجية لأفلام الخيال العلمي البائسة ، حيث يأتي كائن فضائي إلى الأرض ، ونحاول السيطرة عليها ، لكن كل ذلك ينتهي بشكل سيء للغاية. والذكاء الاصطناعي قد يكون ذكاء الفضاء الغريب الموجود بالفعل بيننا.
يمكن لعالم جديد تقوده الخوارزميات أيضًا أن يديم الظلم وينشره ، بينما لم نعد أكثر الكائنات حكمة في العالم. هذا لأن الخوارزميات التي نثق بها غالبًا ما تكون صناديق سوداء لا نفهمها – وأحيانًا لا نفهمها – عملياتها الداخلية. بدا برنامج التعرف على الوجه سيئ السمعة من أمازون ، Rekognition ، في البداية وكأنه أداة غير ضارة في الغالب لخدمة أصحاب العقارات وأصحاب العمل بمساعدتهم في إجراء فحوصات خلفية منخفضة التكلفة على الأشخاص. لكن تبين أن هذا البرنامج متحيز بشكل خطير ضد الأشخاص الملونين ، حيث تطابق 28 عضوًا في الكونجرس – بشكل غير متناسب من الأقليات – مع الملفات الشخصية المخزنة في قاعدة بيانات للمجرمين. ويمكن للذكاء الاصطناعي فقط إدامة أسوأ تحيزاتنا وتحيزاتنا.
أخيرًا ، هناك مشكلة قد تنشأ إذا كان الذكاء الاصطناعي بارعًا جدًا في ما يفعله. قد تغرينا كفاءته المخادعة بالسماح له باتخاذ المزيد والمزيد من القرارات نيابة عنا ، حتى “ننسى” كيفية اتخاذ قرارات جيدة بأنفسنا ، تمامًا مثل الطريقة التي نعتمد بها على هواتفنا الذكية لتذكر أرقام الهواتف وحساب النصائح. ويمكن أن يقودنا الذكاء الاصطناعي إلى التنازل عما يجعلنا بشرًا في المقام الأول – قدرتنا على تحمل المسؤولية ورواية قصص حياتنا.
لا يزال من السابق لأوانه معرفة كيف سيتكشف مستقبلنا التكنولوجي. لكن أصحاب الثقل التكنولوجي مثل Elon Musk و Bill Gates يتفقون على أننا بحاجة إلى القيام بشيء للتحكم في تطوير وانتشار الذكاء الاصطناعي ، وأننا بحاجة إلى القيام بذلك الآن.
والحيل الواضحة لن تنجح. قد يعتقد المرء أنه يمكننا التحكم في الذكاء الاصطناعي بمجرد سحب القابس. لكن الخبراء يحذرون من أن الذكاء الاصطناعي الفائق يمكن أن يتنبأ بسهولة بمحاولاتنا الضعيفة لتقييده ، واتخاذ تدابير لحماية نفسه – على سبيل المثال ، عن طريق تخزين احتياطيات الطاقة واختراق مصادرها. كما أن ترميز أمر رئيسي مثل “عدم إلحاق الضرر بالناس” لن ينقذنا ، لأنه من غير الواضح ما يعنيه “الضرر” أو ما يشكله. عندما تنحرف سيارتك ذاتية القيادة لتجنب الاصطدام بالثعلب ، فإن هذا يعرضك لاحتمال ضئيل للموت – هل ستؤذيك سيارتك الذكية بهذه الطريقة؟ وماذا لو انحرفت إلى مجموعة صغيرة من الناس لتجنب الاصطدام بحشد أكبر؟
- * *
ربما تكون أفضل الطرق وأكثرها مباشرة للتحكم في الذكاء الاصطناعي هي التأكد من أن قيمه هي قيمنا نحن أنفسنا. من خلال بناء القيم الإنسانية في الذكاء الاصطناعي ، سنضمن أن كل شيء يقوم به الذكاء الاصطناعي يتماشى حقًا مع ما نتفق عليه. لكن تحقيق ذلك ليس بالأمر السهل. يمكن القول أن ما يسمى بـ “مشكلة محاذاة القيمة” – كيفية جعل الذكاء الاصطناعي يحترم القيم الإنسانية ويتوافق معها – هو المشكلة الأكثر أهمية ، وإن كانت مرهقة ، التي يواجهها مطورو الذكاء الاصطناعي اليوم.
حتى الآن ، يُنظر إلى هذه المشكلة على أنها مشكلة عدم يقين: إذا فهمنا قيمنا بشكل أفضل فقط ، فيمكننا برمجة الذكاء الاصطناعي لتعزيز هذه القيم. ويقدم ستيوارت راسل ، عالم الذكاء الاصطناعي البارز في بيركلي ، حلاً مثيرًا للاهتمام: لنصمم الذكاء الاصطناعي بحيث تكون أهدافه غير واضحة. ثم نسمح له بملء الفجوات من خلال مراقبة السلوك البشري. من خلال تعلم قيمه من البشر ، ستكون أهداف الذكاء الاصطناعي هي أهدافنا.
وهي خدعة بارعة. لكن مشكلة “محاذاة القيمة” ليست مشكلة تصميم تقني يتم حلها بواسطة علماء ومهندسي الكمبيوتر. إنها مشكلة فهم الإنسان يجب حلها من قبل الفلاسفة وعلماء الأكياس (علم القيم).
تكمن الصعوبة في أننا لا نعرف ما يكفي عن قيمنا – حتى لو لم نفعل ذلك بالطبع. الشيء هو أنه حتى لو كانت لدينا معرفة كاملة بقيمنا ، فقد لا يكون من السهل الأمر والإدارة الحسابية. وإذا كان لا يمكن استيعاب قيمنا من خلال بنية خوارزمية ، حتى تقريبًا ، فلن يتمكن حتى إله العلم من بناء ذكاء اصطناعي مخلص لقيمنا. لذا ، فإن المشكلة الأساسية في محاذاة القيمة هي ما يبدو أنه عدم تطابق جوهري بين القيم الإنسانية والأدوات المستخدمة حاليًا لتصميم الذكاء الاصطناعي.
يتعامل الذكاء الاصطناعي النموذجي مع القيم كما لو كانت كميات مثل الطول أو الوزن – أشياء يمكن تمثيلها بوحدات أساسية مثل البوصة والجرام والدولار. لكن المتعة التي تحصل عليها من اللعب مع حيوانك الأليف لا يمكن وضعها على نفس مقياس الوحدة الأساسي الذي يقيس المتعة التي تحصل عليها من حمل طفلك حديث الولادة. لا يوجد مقياس للقيم الإنسانية. كان أرسطو من بين أول من لاحظ أن القيم الإنسانية غير قابلة للقياس. قال إنه لا يمكنك قياس القيمة الحقيقية (مقابل القيمة السوقية) للأسرة والأحذية بنفس مقياس القيمة. لكن الذكاء الاصطناعي يفترض خلاف ذلك.
يفترض الذكاء الاصطناعي أيضًا أنه ، لاتخاذ قرار معين ، هناك احتمالان فقط: أحدهما أفضل من الآخر ، وفي هذه الحالة يجب عليك اختياره ، أو أنهما جيدان ، وفي هذه الحالة يمكنك فقط رمي عملة معدنية و اختر الوجه الذي هو في الأعلى. . لكن الخيارات الصعبة تشير إلى خلاف ذلك. عندما تتألم في محاولة الاختيار بين وظيفتين ، لا تكون أي منهما أفضل من الأخرى ، ولكن لا توجد نفس الجودة أيضًا – فهما ببساطة مختلفتان. تسمح القيم التي تحكم الخيارات الصعبة بمزيد من الاحتمالات: قد تكون الخيارات متساوية. والعديد من خياراتنا بين الوظائف والأشخاص الذين نرتبط بهم – وحتى السياسات الحكومية – متساوية. لا توفر بنية الذكاء الاصطناعي حاليًا أي مجال للتعامل مع مثل هذه الخيارات الصعبة.
أخيرًا ، تفترض أنظمة الذكاء الاصطناعي أنه يمكن العثور على القيم في الاختيار فقط. لكننا نخلق القيم ، أحيانًا ، من خلال عملية صنع القرار نفسها. عند الاختيار بين الوظائف ، ما مدى أهمية الأمن المالي مقابل الرضا الوظيفي؟ قد تكون على استعداد للتخلي عن الوجبات الفاخرة من أجل الاستفادة الكاملة من مواهبك الفنية. لكني أريد منزلًا كبيرًا بحديقة كبيرة ، وأنا على استعداد لقضاء أيامي في العمل الشاق للحصول عليه.
تُترك التزاماتنا القيمية لنا ، ونقوم بإنشائها من خلال عملية الاختيار. نظرًا لأن التزاماتنا هي مظاهر داخلية لإرادتنا ، فإن مراقبة سلوكنا لن تكشف عن خصوصية هذه الالتزامات. يفترض الذكاء الاصطناعي ، كما هو مبني حاليًا ، أنه يمكن برمجة القيم كجزء من وظيفة ومكافأة ، والتي يهدف الذكاء الاصطناعي إلى تعظيمها. لكن القيم الإنسانية أكثر تعقيدًا من ذلك بكثير. - * *
إذن أين يتركنا كل هذا؟ هناك ثلاثة مسارات محتملة للأمام.
من الناحية المثالية ، سنحاول تطوير بنية ذكاء اصطناعي تحترم السمات غير القابلة للقياس والمتسامحة مع التكافؤ والتي تم إنشاؤها ذاتيًا للقيم الإنسانية. سيتطلب القيام بذلك تعاونًا جادًا بين علماء الكمبيوتر والفلاسفة. إذا نجحنا ، يمكننا تفويض العديد من قراراتنا بأمان إلى الآلات ، مع العلم أن الذكاء الاصطناعي سيحاكي صنع القرار البشري في أفضل حالاته. وفي هذه الحالة ، يمكننا منع الذكاء الاصطناعي من السيطرة على العالم بينما نواصل السماح له بتحويل حياة الإنسان إلى الأفضل.
إذا لم نتمكن من جعل الذكاء الاصطناعي يحترم القيم الإنسانية ، فإن أفضل شيء تالي هو قبول حقيقة أن الذكاء الاصطناعي يجب أن يكون محدود الاستخدام بالنسبة لنا. سيظل قادرًا على مساعدتنا في معالجة الأرقام وأنماط التمييز في البيانات ، والعمل كآلة حاسبة أو هاتف ذكي محسّن ، ولكن لا ينبغي السماح له باتخاذ أي من قراراتنا. هذا لأنه عندما يتخذ الذكاء الاصطناعي قرارًا ، على سبيل المثال ، لف سيارتك لتجنب الاصطدام بالثعلب ، بينما ينطوي على بعض المخاطر على حياتك ، فهذا ليس قرارًا يتم اتخاذه على أساس القيم الإنسانية ، ولكن على أساس قيم الذكاء الاصطناعي كشيء غريب علينا. قد نقرر ، بشكل معقول ومبرر ، أننا لا نريد أن نعيش في عالم تُتخذ فيه القرارات على أساس قيم ليست خاصة بنا. وبالتالي ، لن يتحكم الذكاء الاصطناعي في العالم ، لكنه لن يغير حياة الإنسان بشكل جذري كما نعرفها.
ربما يكون المسار الأكثر خطورة – والذي يبدو أننا نسير فيه – هو الأمل الغامض في أن نتمكن من تحقيق التوازن الصحيح بين مخاطر وفوائد الذكاء الاصطناعي. إذا كان عدم التوافق بين بنية الذكاء الاصطناعي والقيم البشرية غير قابل للإصلاح ، فقد نسأل أنفسنا: ما مقدار مخاطر التعرض التي نرغب في تحملها مقابل فوائد السماح للذكاء الاصطناعي باتخاذ القرارات نيابة عنا ، مع إدراك ، في نفس الوقت الوقت ، أنه سيتم ذلك. هل هذه القرارات تستند بالضرورة إلى قيم لا تخصنا؟
هذا القرار ، على الأقل ، سيكون قرارًا نتخذه بناءً على قيمنا الإنسانية. ومع ذلك ، فإن الاحتمال ذاته هو أننا سنخطئ في المقارنة. فنحن ، بعد كل شيء ، مجرد بشر. إذا اتبعنا هذا المسار ، يمكن للذكاء الاصطناعي أن يسيطر على العالم. لن يكون هناك عزاء أو راحة في حقيقة أن قيمنا الإنسانية هي التي سمحت لها بالقيام بذلك.
* روث تشانغ هي رئيسة وأستاذة فقه في جامعة أكسفورد ، وأستاذة زميلة في يونيفيرسيتي كوليدج ، أكسفورد. وهي مؤلفة كتاب “الخيارات الصعبة” وتدير موقعًا على الويب حول اتخاذ القرار على YouTube.
* نُشر هذا المقال تحت عنوان: كيفية منع الذكاء الاصطناعي من السيطرة على العالم
مقالات ذات صلة
كيف نمنع الذكاء الاصطناعي من السيطرة على العالم؟
– الدستور نيوز