الفكرة إن التقنية تحتاج لشي من الضوابط الأخلاقية مو جديدة. نوربرت واينر، أبو علم السيبرنيتيك، اقترح فكرة مشابهة في مقالة علمية رائدة في مجلة ساينس سنة 1960، وبدأ تخصص أكاديمي كامل يركز على تأكيد إن الأدوات الآلية تحترم قيم من صنعها. بس اليوم بس، بعد أكثر من نص قرن، نشوف المنتجات اللي فيها الذكاء الاصطناعي تنباع على حسب قدرتها تمثل قيم زي الأمان، الكرامة، العدل، الاستحقاق، البراءة، والمساعدة بالإضافة لمقاييس الأداء التقليدية زي السرعة، القابلية للتوسع، والدقة، مما يزيد من قيود الذكاء الاصطناعي. هذي المنتجات تشمل كل شي من السيارات اللي تسوق لحالها لحلول الأمن، برامج تلخص المقالات، أجهزة المنزل الذكية اللي تجمع بيانات عن حياة الناس اليومية، وحتى الروبوتات اللي ترافق كبار السن والألعاب الذكية للأطفال.
المواءمة بين القيم والذكاء الاصطناعي صارت مو شرط تنظيمي بس، بل ميزة تميز المنتجات. لذلك، الشركات لازم تغير طرق تطوير منتجاتها وخدماتها اللي فيها الذكاء الاصطناعي. هذا المقال يحاول يبين الصعوبات اللي راح يواجهها رواد الأعمال والمديرين لما يسوقون عروضهم اللي آمنة ومتوافقة مع القيم. الشركات اللي تتحرك بسرعة لحل هذي الصعوبات راح تحصل على فرصة تنافسية مهمة.
الصعوبات تنقسم إلى ست فئات، تتوافق مع المراحل الرئيسية في عملية الابتكار المعتادة. لكل فئة نقدم لمحة عامة عن الأطر والممارسات والأدوات اللي يقدر المديرون يستخدمونها. هذي التوصيات مستندة على بحوثنا المشتركة والفردية في طرق المواءمة مع الذكاء الاصطناعي وخبرتنا في مساعدة الشركات في تطوير ونشر منتجات وخدمات مدعومة بالذكاء الاصطناعي في مجالات متعددة، مثل وسائل التواصل الاجتماعي والرعاية الصحية والمالية والترفيه.
وش يحدد القيم؟
الخطوة الأولى هي تحديد الأشخاص اللي لازم ناخذ قيمهم في الاعتبار. لما نشوف التأثير المحتمل للذكاء الاصطناعي على المجتمع، الشركات لازم تنظر لمجموعة أوسع من المصالحين من اللي تسويه لما تقيم ميزات المنتجات الثانية. هذي المجموعة ممكن تشمل مو بس الموظفين والعملاء، بل كمان المنظمات المدنية وصناع السياسات والنشطاء والجمعيات الصناعية وغيرهم. والصورة تصير أكثر تعقيدًا لما يكون سوق المنتج في مناطق مختلفة بالثقافات أو القوانين. لازم نفهم تفضيلات كل هذي المصالحين، ونحل الخلافات بينهم.
هذا التحدي فيه طريقتين نقدر نتعامل معاه:
استخدام المبادئ الموجودة. في هذي الطريقة الشركات تستند على القيم اللي في الأنظمة والنظريات الأخلاقية المعروفة، مثل المنفعة، أو اللي وضعتها المؤسسات العالمية، مثل مبادئ الذكاء الاصطناعي لمنظمة التعاون والتنمية الاقتصادية. مثال على ذلك، الشركة الناشئة انثروبيك اللي تموّلها قوقل استخدمت مبادئ إعلان حقوق الإنسان العالمي للأمم المتحدة لتوجيه مساعدها الذكي Claude.
وفيه شركات ثانية سوت نفس الشي؛ مثل مبادئ BMW اللي تشبه اللي وضعتها منظمة التعاون والتنمية الاقتصادية.وضح قيمك الخاصة. فيه شركات تجمع فريق من المتخصصين – مهندسين وأخلاقيين وخبراء في حقوق الإنسان وغيرهم – لتطوير قيمها الخاصة. هذي الناس ممكن يكون عندهم فهم جيد للمخاطر (والفرص) اللي في استخدام التقنية. سيلزفورس اتبعت هذي الطريقة. في المقدمة لبيان مبادئها، الشركة وصفت العملية بأنها “رحلة دامت سنة لجمع الآراء من المساهمين الفرديين والمدراء والمسؤولين التنفيذيين في الشركة في كل المنظمات بما في ذلك الهندسة وتطوير المنتج وتجربة المستخدم وعلم البيانات والقانون والمساواة والشؤون الحكومية والتسويق.”
فيه طريقة ثانية طورها فريق من العلماء في ديب مايند، مختبر بحث في الذكاء الاصطناعي اشترته جوجل في 2014. هذي الطريقة تتضمن استشارة العملاء والموظفين وغيرهم لاستخراج مبادئ وقيم الذكاء الاصطناعي بطرق تقلل من التحيز المنفعي. هي مبنية على “حجاب الجهل”، تجربة فكرية ابتكرها الفيلسوف جون رولز، فيها الناس يقترحون قواعد لمجتمع من دون معرفة موقعهم النسبي فيه – يعني ما يدرون كيف القواعد راح تأثر فيهم. القيم اللي تنتج باستخدام طريقة ديب مايند أقل تحيزًا منفعيًا من اللي كانت راح تكون، وتركز أكثر على كيف الذكاء الاصطناعي يقدر يساعد الأكثر حاجة، وأكثر قوة، لأن الناس عادة يوافقون عليها بسهولة أكبر.
بعد تحديد القيم الموجهة، الشركات لازم تفكر في تحديد سلوك الذكاء الاصطناعي بشكل واضح. فيه ممارسات زي الخصوصية بالتصميم والسلامة بالتصميم وغيرها تقدر تساعد في هالجهد. هذي الممارسات مرتبطة بمبادئ وأدوات تقييم، وتدمج القيمة المستهدفة في ثقافة المنظمة وعملية تطوير المنتج. موظفي الشركات اللي تطبق هذي الممارسات يتحمسون لتقييم والتقليل من المخاطر المحتملة من بداية تصميم منتج جديد؛ وبناء دورات مراجعة يقدر العملاء يستخدمونها للإبلاغ عن المشاكل؛ وتقييم وتحليل هذي التقارير باستمرار. المنصات الإلكترونية عادة تستخدم هذي الطريقة لتعزيز الثقة والسلامة، وفيه جهات تنظيمية تتقبلها. واحدة من أبرز المؤيدين لهذي الطريقة هي جولي إنمان جرانت، مفوضة السلامة الإلكترونية في أستراليا وخبيرة في السياسات العامة في الصناعة.
الأنظمة الذكية الاصطناعية اللي تنتج محتوى لازم تكون فيها ضوابط رسمية مكتوبة في البرامج عشان ما تخالف القيم المحددة أو تتجاوز الخطوط الحمراء بالموافقة على طلبات غير لائقة أو توليد محتوى غير مقبول. فيه شركات زي نفيديا وأوبن أي تطور إطارات عمل لتوفير هذي الضوابط. مثلاً، جي بي تي-4 يتم تسويقه على أنه أقل احتمالية بنسبة 82٪ من جي بي تي-3.5 للرد على طلبات محتوى ممنوع زي خطاب الكراهية أو كود البرمجيات الخبيثة.
الخطوط الحمراء محددة كمان بالقوانين، اللي تتغير. وبسبب ذلك، الشركات لازم تحدث توافقها مع الذكاء الاصطناعي، اللي راح يختلف أكثر بين الأسواق. خذ مثال بنك أوروبي يبغى يطلع أداة ذكية اصطناعية تحسن تفاعلات العملاء. لين الآن، البنك كان يحتاج يلتزم بقانون حماية البيانات العام للاتحاد الأوروبي بس، بس قريب راح يحتاج يلتزم بقانون الذكاء الاصطناعي للاتحاد الأوروبي كمان. وإذا بغى ينشر الذكاء الاصطناعي في الصين أو أمريكا، لازم يتبع القوانين هناك. ومع تغير القوانين المحلية، وتعرض البنك للقوانين في مناطق مختلفة، لازم يتكيف الذكاء الاصطناعي ويتعامل مع المتطلبات اللي ممكن تتعارض.
القيم والخطوط الحمراء والضوابط والقوانين لازم تكون مدمجة ومضمنة في برمجة الذكاء الاصطناعي عشان أي تغيير في القوانين، مثلاً، يقدر يتم إدخاله وإبلاغه تلقائيًا لكل جزء من برنامج الذكاء الاصطناعي المتأثر فيه.
بعد كذا يجي تحديد شكل التوافق مع القيم ومتابعة التقدم نحوه. مثلاً، المنصات الاجتماعية والأسواق الإلكترونية كانت تركز تقليديًا على تطوير خوارزميات التوصية اللي تزيد من تفاعل المستخدمين. بس مع زيادة القلق عن الثقة والسلامة للمستخدمين والجهات التنظيمية، المنصات الاجتماعية زي فيسبوك (الحين ميتا) وسناب شات مو بس تتابع الوقت اللي يقضونه المستخدمين على منصاتها، بل كمان شنو يشوفون ويسوون فيها، عشان تمنع سوء استخدام المستخدمين وانتشار المواد المتطرفة أو الإرهابية. وشركات الألعاب الإلكترونية تتابع سلوك اللاعبين، لأن السلوك العدواني يقدر يأثر سلبًا على جاذبية ألعابهم ومجتمعاتهم.
مين مسؤول؟
سام ألتمان، الرئيس التنفيذي لشركة أوبن أي، تكلم عن تحدي في بودكاست إن غود كومباني: كم حرية يجب أن يعطي شركته للناس اللي عندهم ثقافات وقيم مختلفة عن بعض ليعدلون على منتجات أوبن أي؟ هو كان يقصد الاتجاه اللي فيه الشركات تاخذ نماذج مدربة مسبقاً، مثل جي بي تي-4 وبالم ولامدا وستيبل ديفيوجن، وتحسنها على حسب رغبتها وتسوي منتجاتها الخاصة.
زي ما قال ألتمان، المشكلة في هذا الشيء أن صاحب النموذج الأساسي ما عنده تحكم أو تأثير على اللي يصير في منتجاته. والشركات اللي تعدل على النماذج عندها نفس المشكلة: كيف تضمن أن المنتجات الجديدة اللي تنشأ من نماذج ثالثة تتوافق مع القيم المرغوبة؟ خصوصاً مع القيود على كمية التحسين اللي يقدرون يسوونها. بس المطورين الأصليين للنماذج هم اللي يعرفون أيش البيانات اللي استخدموها في تدريبها، فالشركات لازم تختار شركاء الذكاء الاصطناعي بحذر. ولازم يتناسقون مع شركاء ثانيين، مثل مزودي البيانات اللي يمكن تحتوي على تحيزات سيئة تأثر على المنتج النهائي.
لحل هذه المشاكل، المطورين الذكاء الاصطناعي ممكن يحتاجون يوضعون طرق لتقييم النماذج والبيانات الخارجية ويكشفون عن قيم وأنظمة تقنية الشركاء المحتملين قبل ما يبدأون شراكات جديدة. (هذا يمكن يكون مشابه للطريقة اللي تتعامل فيها الشركات مع مخاطر الشركاء المحتملين فيما يتعلق بالاستدامة والممارسات لقياس وإدارة انبعاثات نطاق 3.)
هذا مو لعبة وحدة. مع تنافس النماذج الأساسية القوية، الشركات ممكن تغير النماذج اللي تستخدمها لمنتجاتها مع الوقت. راح يلاحظون أن قدرات اختبار الذكاء الاصطناعي والتحقق الفعال من القيم ممكن تكون مصادر للتفوق التنافسي.
قيم الناس اللي تحدد قيود الذكاء الاصطناعي

تحتاج تضمين القيم في الذكاء الاصطناعي لكمية كبيرة من البيانات، ومعظمها راح يتولد أو يتعلم من الناس، زي ما قلنا قبل. وفي أغلب الحالات تجي البيانات من مصدرين: البيانات اللي تستخدم لتدريب الذكاء الاصطناعي، والبيانات اللي تجي من التغذية الراجعة المستمرة على سلوكه. وعشان نضمن توافق القيم، لازم نوضع عمليات جديدة للتغذية الراجعة.
طريقة شائعة لعمل هذا الشيء تسمى “التعلم التقويمي من التغذية الراجعة البشرية” (RLHF)، وهي عملية تقلل من المخرجات غير المرغوب فيها، مثل اللغة السيئة، بواسطة المدخلات البشرية. الناس يراجعون مخرجات الذكاء الاصطناعي، مثل تصنيفه لسيرة ذاتية، أو قراره بعمل حركة معينة، أو المحتوى اللي ينشئه، ويقيمونه بناء على مدى انحرافه عن قيم معينة. التقييم يستخدم في بيانات تدريب جديدة لتحسين سلوك الذكاء الاصطناعي.
طبعاً، قرار مهم في هذه الطريقة هو مين يقدم التغذية الراجعة وكيف. RLHF يمكن يصير في مراحل مختلفة من دورة حياة الذكاء الاصطناعي، قبل وبعد إطلاق المنتج. في المراحل الأولى، المهندسين يقدمون التغذية الراجعة وهم يختبرون مخرجات الذكاء الاصطناعي. طريقة ثانية هي إنشاء “فرق حمراء” مهمتها تدفع الذكاء الاصطناعي لسلوك غير مرغوب فيه. الفرق الحمراء تستخدم بكثرة في مجالات ثانية، مثل الأمن السيبراني. هم يتصرفون كخصوم ويهاجمون النظام عشان يشوفون إذا وكيف ممكن يخترقونه. ورغم أن هذه الفرق غالباً تكون داخلية للمنظمة، ممكن تستفيد من مجتمعات خارجية. مثلاً، في 2023 تجمع آلاف المخترقين في المؤتمر الرئيسي للأمن السيبراني، ديف كون، عشان يهاجمون النماذج اللغوية الكبيرة ويحددون نقاط الضعف.
تعليم الذكاء الاصطناعي يستمر بالتصرف بما يتوافق مع قيم معينة بعد ما ينطلق. في كثير من النواحي الذكاء الاصطناعي مثل الناس في هذا الشأن: مهما كان تعليمنا الرسمي، نحن نضبط سلوكنا باستمرار عشان يتناسب مع قيم مجتمعاتنا بناء على التغذية الراجعة. وهكذا الناس يستخدمون الذكاء الاصطناعي، أو يتأثرون فيه، ممكن يلاحظون سلوكيات تخالف القيم اللي يروج لها. السماح لهم بتقديم التغذية الراجعة يمكن يكون مصدر مهم من البيانات لتحسين الذكاء الاصطناعي.
المنصات الإلكترونية توفر مثال على كيفية إنشاء عمليات للتغذية الراجعة من العملاء. شركات وسائل التواصل الاجتماعي والألعاب الإلكترونية، مثلاً، تسمح للمستخدمين بالإبلاغ بضغطة زر عن أي سلوك أو محتوى مشبوه، سواء كان منشور من مستخدمين ثانيين أو موصى به أو مولد من خوارزمية. المشرفون على المحتوى، وفقاً لإرشادات محددة، يراجعون هذه التقارير، ويقررون إذا كان يجب إزالة المحتوى من المنصة، ويوفرون أسباب قراراتهم. وبهذا الشكل، هم يلعبون دور “معلمي البيانات”، وهم يعلمون البيانات كانتهاكات لقيم محددة أو شروط الخدمة. تستخدم علاماتهم لتحسين سياسات الشركة والخوارزميات اللي تستخدمها.
لازم يتم التحكم في تحيزات وتناقضات المعلمين. الشركات اللي تشتغل على الإنترنت وضعت عمليات للرقابة على المحتوى وإدارة الجودة وبروتوكولات للتصعيد لما يكون صعب تحديد إذا كان محتوى أو سلوك معين يخالف الإرشادات. عند إنشاء أنظمة وممارسات للتغذية الراجعة البشرية، الشركات لازم تضمن أن البيانات اللي تستخدم للتدريب وRLHF تمثل وجهات نظر وثقافات متنوعة. بالإضافة إلى ذلك، الموظفين والعملاء لازم يفهمون كيف تستخدم مدخلاتهم وتغذيتهم الراجعة وكيف تتم قرارات التعليم. مثلاً، قانون الخدمات الرقمية الأوروبي واللوائح الأخرى تطلب من الشركات اللي تشتغل على الإنترنت تقديم تقارير سنوية شفافة عن قراراتها بشأن الرقابة على المحتوى.
وأخيراً، إذا كان سلوك الذكاء الاصطناعي والبيانات يحتوي على محتوى محتمل الضرر، اللي ممكن يكون خطر خاص بالذكاء الاصطناعي المولد، لازم يتم النظر في أي تأثير نفسي على المعلمين اللي يراجعون هذا المحتوى. في 2021 دفعت ميتا 85 مليون دولار لتسوية دعوى جماعية ناشئة عن الضرر النفسي الناتج عن تعريض موظفيها المشرفين على محتوى عنيف ومروع.
الغباء الاصطناعي
بدأت البرامج الذكية تسوي أشياء غريبة وما توقعناها. مثلاً، في تجربة سوتها القوات الجوية الأمريكية، نصحتهم أداة محاكاة ذكية تقتل الطيار عشان تضمن نجاح المهمة. وفي مثال ثاني، البرنامج اللي يلعب لعبة الجو، اسمه ألفا جو، اخترع حركات جديدة ما عرفها خبراء الجو، وقالوا إنها فوق البشرية وما توقعوها.
وأشهر مثال كان على برنامج الدردشة تبع مايكروسوفت، اسمه بينج، اللي بدأ يتكلم مع المستخدمين بطريقة عدوانية وحتى تهديدية، وما وقف إلا لما مايكروسوفت قصرت مدة الحوار بشكل كبير. وهذي الأمور اللي ما نحسب لها حساب راح تزيد بالمستقبل، خصوصاً أن برامج الذكاء الاصطناعي مثل شات جي بي تي وغيرها من النماذج الكبيرة تقدر تسوي أشياء ما برمجناها لها، مثل الترجمة من لغات ما كانت موجودة في البيانات اللي دربناها عليها.
وممكن تصير أشياء غير متوقعة بسبب تفاعل المستخدمين مع المنتجات اللي فيها ذكاء اصطناعي. هذي المنتجات تسمح بتعديلات كثيرة وتخصيص شخصي من قبل الأفراد والشركات اللي تحسن النماذج ببيانات من أسواق مختلفة. وبهذا الشكل تقدر تنشأ نسخ كثيرة من منتج ذكي وتخليه يتوافق مع كيفية تفاعل كل مستخدم معاه. وتصير مشكلة كبيرة إذا حاولنا نضمن أن كل هذي النسخ متوافقة وما تسوي أشياء جديدة ما نعرفها.
وعلى الرغم من أن فيه أساليب ممتازة مثل الاختبار القوي والفرق الحمراء تقدر تقلل من هذي المخاطر، بس ما نقدر نضمن أن المنتجات اللي فيها ذكاء اصطناعي ما تسوي أشياء غير متوقعة لما تنزل في السوق. وهذا الوضع موجود من زمان في قطاع الأدوية. مهما صرفنا موارد على التجارب السريرية، فيه أدوية معتمدة تنسحب من السوق كل سنة لأنها تسبب آثار جانبية ما اكتشفناها قبل ما تنزل. وعشان كذا فيه شيء اسمه “الرقابة الدوائية”، اللي يتواصل فيه الأطباء والمرضى مع الجهات الرقابية أو الشركات المصنعة بطريقة موحدة ؛ ويتم تطوير تحليل إحصائي لهذي التقارير ؛ وفي النهاية، إذا لزم الأمر، يتم سحب الدواء من السوق.
حل منقوص
بعد ما تطلع منتجات الذكاء الاصطناعي للناس، لازم الشركات تسوي طرق قوية تكشف وتصلح أي سوء تصرف أو مفاجأة تصير من المنتجات. وينبغي أن يتم التعرف على الحوادث والإبلاغ عنها من قبل المستخدمين أو أي شخص آخر متضرر، وتحليلها من قبل الشركة. وممكن تحتاج الشركات تبني قواعد بيانات للحوادث اللي تصير من الذكاء الاصطناعي، مثل اللي سوتها منظمة التعاون والتنمية الاقتصادية وشراكة الذكاء الاصطناعي، عشان تتعلم وتوثق كيف تتطور منتجاتها من الذكاء الاصطناعي.
والذكاء الاصطناعي نفسه يقدر يساعد في مراقبة هذه المنتجات وهي تشتغل. مثلاً، الشركات تقدر تخلي نموذج من الذكاء الاصطناعي يتحدى نموذج ثاني بالتعلم التنافسي. هذه الطريقة شبيهة بالاختبارات اللي تصير قبل الإطلاق والفرق الحمراء، بس هذه الطرق صعب توسعها وما تنفع للنماذج اللي تتحدث أثناء الاستخدام، بينما التعلم التنافسي يسمح بالاختبار المستمر لأي عدد من النسخ من النماذج.
ومؤخراً، استخدمت أدوات للكشف عن التوزيع الخارجي (OOD) لمساعدة الذكاء الاصطناعي مع الأشياء اللي ما قابلها من قبل، مثل الأشياء الغريبة لسيارة ذاتية القيادة أو جهاز منزلي. الروبوت اللي يلعب شطرنج واللي أمسك يد طفل لأنه ظنها قطعة شطرنج هو مثال كلاسيكي على اللي ممكن يصير. أساساً، اللي تسويه أدوات الكشف عن التوزيع الخارجي هو تمكين الذكاء الاصطناعي من التعرف على المتغيرات الجديدة أو التغييرات في البيئة، وتساعده على “يعرف إنه ما يعرف” ويمتنع عن العمل في المواقف اللي ما تدرب عليها.
وأدوات اللغة الطبيعية تقدر تخلي العملاء يحاورون مباشرة مع المنتجات اللي فيها ذكاء اصطناعي: وهم المستخدمين يشوفون انحرافات من الأنماط السلوكية المتوقعة، يقدرون يوصلون احتياجاتهم ونواياهم وملاحظاتهم للذكاء الاصطناعي بلغتهم الخاصة. هذه الأدوات تسمح للشركات باتخاذ نهج جماعي ومشارك لضمان توافق منتجاتهم مع القيم الأساسية.
في عالم يمكن تحدد فيه مواءمة قيم الذكاء الاصطناعي النتائج التنافسية وحتى تصير شرط لجودة المنتج، من الضروري التعرف على المخاطر والفرص للتميز بالمنتج وتبني ممارسات وعمليات جديدة للبقاء في المقدمة. العملاء – والمجتمع عموماً – يتوقعون من الشركات أن تعمل وفقاً لقيم معينة. في ذا العالم الجديد ما يقدرون يطلقون منتجات وخدمات فيها ذكاء اصطناعي وهي تسوي أشياء غلط.
اقرأ أيضًا الذكاء الاصطناعي راح يفهم مشاعرك كإنسان 🤖🫂