القائمة الرئيسية

الصفحات

اخلاقيات الذكاء الاصطناعي فوائد ومخاطر الذكاء الاصطناعي

 اخلاقيات الذكاء الاصطناعي: فوائد ومخاطر الذكاء الاصطناعي.

إن الحجم المتزايد للذكاء الاصطناعي - من حيث حجم الشبكات العصبية ، واستخداماتها للطاقة ، وحجم مجموعات البيانات ، وانتشار التكنولوجيا في المجتمع - يزيد من مخاطر الأسئلة الأخلاقية الرئيسية.

اخلاقيات الذكاء الاصطناعي: فوائد ومخاطر الذكاء الاصطناعي


تتفاقم القضايا الأخلاقية للذكاء الاصطناعي بسبب زيادة نطاقه

في عام 1949 ، في فجر عصر الكمبيوتر ، حذر الفيلسوف الفرنسي غابرييل مارسيل من خطورة تطبيق التكنولوجيا بسذاجة لحل مشاكل الحياة

كتب مارسيل في كتابهالوجود والتملك" أن الحياة لا يمكن إصلاحها بالطريقة التي تصلح بها إطارًا مثقوبًا.

أي إصلاح ، أي تقنية ، هو في حد ذاته نتاج ذلك العالم الإشكالي نفسه ، وبالتالي فهو إشكالي ومعرض للخطر

غالبًا ما يتم تلخيص تحذير مارسيل في عبارة واحدة لا تُنسى: "الحياة ليست مشكلة يجب حلها ، ولكنها لغز يجب عيشه". 

على الرغم من هذا التحذير ، بعد سبعين عامًا ، يعد الذكاء الاصطناعي أقوى تعبير حتى الآن عن رغبة البشر في حل أو تحسين حياة الإنسان باستخدام أجهزة الكمبيوتر

لكن ما هي أنظمة الكمبيوتر هذه؟ كما كان مارسيل سيحث ، يجب على المرء أن يسأل من أين أتوا ، وما إذا كانوا يجسدون المشكلات ذاتها التي يدعون لحلها.

ما هو الذكاء الاصطناعي الأخلاقي؟

الأخلاق في الذكاء الاصطناعي هي في الأساس تساؤل ، وتحقق باستمرار ، ولا تأخذ أبدًا التقنيات التي يتم فرضها بسرعة على حياة الإنسان كأمر مسلم به

أصبح هذا الاستجواب أكثر إلحاحًا بسبب الحجم.

 تصل أنظمة الذكاء الاصطناعي إلى حجم هائل من حيث قوة الحوسبة التي تتطلبها والبيانات التي تستهلكه وانتشارها في المجتمع ، سواء في نطاق انتشارها أو مستوى المسؤولية التي تتحملها ، يقزم وجود الحوسبة في عصور الكمبيوتر والإنترنت.

 في الوقت نفسه ، تعني زيادة النطاق أن العديد من جوانب التكنولوجيا ، خاصة في شكل التعلم العميق ، تفلت من فهم حتى الممارسين الأكثر خبرة

التعلم العميق كل ماتحتاج الى معرفتة حول التعلم العميق 

تتراوح الاهتمامات الأخلاقية من الباطنية ، مثل من هو مؤلف عمل فني تم إنشاؤه بواسطة الذكاء الاصطناعي ؛ للمسألة الحقيقية والمثيرة للقلق للغاية المتمثلة في المراقبة في أيدي السلطات العسكرية التي يمكنها استخدام الأدوات مع الإفلات من العقاب للقبض على مواطنيها وقتلهم.

في مكان ما من الاستجواب ، هناك بصيص من الأمل في أنه مع التوجيه الصحيح ، يمكن للذكاء الاصطناعي أن يساعد في حل بعض أكبر مشاكل العالم.

يمكن للتكنولوجيا نفسها التي قد تدفع إلى التحيز أن تكشف عن التحيز في قرارات التوظيف.

 يمكن أن تساهم التكنولوجيا نفسها التي تمثل خنزيرًا في تقديم إجابات لإبطاء أو حتى عكس ظاهرة الاحتباس الحراري

يمكن القول إن مخاطر الذكاء الاصطناعي في الوقت الحالي تفوق الفوائد ، لكن الفوائد المحتملة كبيرة وتستحق المتابعة.

كما أوضحت مارجريت ميتشل ، التي كانت سابقاً المشاركة في قيادة منظمة Ethical AI في Google ، بأناقة ، فإن السؤال الرئيسي هو ، "ما الذي يمكن أن يفعله الذكاء الاصطناعي لتحقيق مجتمع أفضل؟"

أخلاقيات الذكاء الاصطناعي: إلحاح جديد وجدل جديد

سيكون سؤال ميتشل مثيرًا للاهتمام في أي يوم ، لكنه يأتي في سياق أضاف إلحاحًا للمناقشة

تأتي كلمات ميتشل من رسالة كتبتها ونشرتها على Google Drive بعد رحيل قائدها المساعد ، Timnit Gebru ، في ديسمبرعبرو أوضح أنها كانت أطلقتها جوجل، مطالبة ميتشل احتياطيا في رسالتها

كتب جيف دين ، رئيس الذكاء الاصطناعي في Google ، في رسالة بريد إلكتروني داخلية للموظفين أن الشركة قبلت استقالة جيبرو.

 يقدم زملاء جيبرو السابقون تعبيراً جديداً لهذه المسألة"استقال" غيبرو من قبل شركة غوغل .

 

مارغريت ميتشليمين ] ، تم إطلاق النار عليها في أعقاب إزالة تيمنيت جبرو

تم فصلي من قبل JeffDean بسبب رسالتي الإلكترونية إلى Brain women  and Allies.  تم قطع حسابي المؤسسي ذلك تم فصلي على الفور :-)

- Timnit Gebru (timnitGebru) 3 ديسمبر 2020

تم طرد ميتشل ، الذي أعرب عن غضبه من الطريقة التي عوملت بها Google مع جيبرو ، في فبراير .

ألقى رحيل أكبر اثنين من الباحثين في مجال الأخلاقيات في Google بظلاله على أخلاقيات شركة Google ، ناهيك عن مخاوفها بشأن الذكاء الاصطناعي

كما أفاد توم سيمونيت من Wired الشهر الماضي ، انسحب اثنان من الأكاديميين المدعوين للمشاركة في مؤتمر Google حول السلامة في الروبوتات في مارس من المؤتمر احتجاجًا على معاملة Gebru و Mitchell. قال أكاديمي ثالث إن مختبره ، الذي تلقى تمويلًا من Google ، لم يعد يتقدم للحصول على أموال من Google ، أيضًا لدعم الأستاذين.

ذكرت راشيل ميتز ، مراسلة سي إن إن ، أن موظفي Google استقالوا في فبراير احتجاجًا على معاملة جيبرو وميتشل واستقال سامي Bengio، وهو باحث بارز في فريق AI جوجل الذي ساعد في تجنيد غبرو هذا الشهر احتجاجا على، غبرو والعلاج ميتشل رويترز قد ذكرت . 

يعبّر التماس على موقع Medium وقعه 2695 من موظفي Google و 4302 من الأطراف الخارجية عن دعمه لـ Gebru ويدعو الشركة إلى "تعزيز التزامها بنزاهة البحث والالتزام بشكل لا لبس فيه بدعم الأبحاث التي تحترم الالتزامات التي تم التعهد بها في مبادئ الذكاء الاصطناعي الخاصة بـ Google  ".

يعتبر وضع جيبرو مثالاً على عدم حيادية التكنولوجيا ، حيث إن ظروف إنشائها ليست محايدة ، كما ناقش باحثو معهد ماساتشوستس للتكنولوجيا كاتلين تورنر ودانييل وود وكاثرين ديغنازيو في مقال في يناير . 

"لقد أنتجت النساء السود منحًا دراسية رائدة تتحدى الروايات السائدة في صناعة الذكاء الاصطناعي والتكنولوجيا: أي أن التكنولوجيا غير تاريخية ، و" متطورة "، و" محايدة "و" عقلانية "تتجاوز المعضلات البشرية في قضايا مثل الجنس والطبقة والعرق يكتب المؤلفون.

خلال مناقشة عبر الإنترنت حول الذكاء الاصطناعي في ديسمبر ، لاحظت سيليست كيد ، الأستاذة في جامعة كاليفورنيا في بيركلي ، وهي تتأمل ما حدث لجبرو ، "الوقت الحالي هو وقت مرعب في الذكاء الاصطناعي".

قال كيد: "ما اختبرته Timnit في Google هو القاعدة ، والسماع عنها أمر غير عادي". 

يأتي التساؤل حول الذكاء الاصطناعي وكيفية ممارسته ، وظاهرة عودة الشركات إلى الاستجابة ، في الوقت الذي يزيد فيه مخاطر التنفيذ التجاري والحكومي للذكاء الاصطناعي.

مخاطر الذكاء الاصطناعي في العالم

تأخذ القضايا الأخلاقية صدى أكبر عندما يتوسع الذكاء الاصطناعي ليشمل استخدامات بعيدة جدًا عن التطوير الأكاديمي الأصلي للخوارزميات

يؤدي تصنيع التكنولوجيا إلى تضخيم الاستخدام اليومي لتلك الخوارزمياتوجد تقرير هذا الشهر من قبل Ryan Mac وزملاؤه في BuzzFeed أن "أكثر من 7000 فرد من ما يقرب من 2000 وكالة عامة في جميع أنحاء البلاد استخدموا التكنولوجيا من شركة Clearview AI للبحث في وجوه ملايين الأمريكيين ، بحثًا عن أشخاص ، بما في ذلك المتظاهرين من Black Lives Matter ، متمردو الكابيتول والمجرمون الصغار وأصدقائهم وأفراد عائلاتهم ".

لم تؤكد كليرفيو أو تنفي نتائج BuzzFeed .

يتم طرح أجهزة جديدة في العالم تعتمد على أشكال التعلم الآلي للذكاء الاصطناعي بطريقة أو بأخرى

على سبيل المثال ، يأتي ما يسمى بالشاحنات المستقلة إلى الطرق السريعة ، حيث من المفترض أن تكون مقطورة الجرارة "المستوى 4 ADAS" قادرة على التحرك بسرعة على الطريق السريع على طرق معينة محددة بدون سائق بشري.

شركة تصنع هذه التكنولوجيا ، TuSimple ، في سان دييغو ، كاليفورنيا ، تطرح للاكتتاب العام في ناسداك.

  في نشرة الاكتتاب العام ، تقول الشركة إن لديها 5700 حجزًا حتى الآن في الأشهر الأربعة منذ إعلانها عن توفر برنامج القيادة الذاتية للحفارات

عندما تتدحرج شاحنة بسرعة عالية وتحمل حمولة ضخمة من شيء ما ، فمن الواضح أن التأكد من أن برنامج الذكاء الاصطناعي يدير السيارة بأمان يمثل أولوية للمجتمع.

 

تقول TuSimple أن لديها ما يقرب من 6000 طلب مسبق لشاحنة شبه بدون سائق

عندما تتدحرج شاحنة بسرعة عالية وتحمل حمولة ضخمة من شيء ما ، فمن الواضح أن التأكد من أن برنامج الذكاء الاصطناعي يدير السيارة بأمان يمثل أولوية للمجتمع.

TuSimple

ومن المجالات الأخرى المثيرة للقلق تطبيق الذكاء الاصطناعي في مجال الأنشطة العسكرية والشرطية

وصف آرثر هولاند ميشيل ، مؤلف كتاب شامل عن المراقبة العسكرية ، عيون في السماء ، كيف تم استخدام ImageNet لتعزيز أنظمة المراقبة العسكرية الأمريكية . 

بالنسبة لأي شخص يرى المراقبة كأداة مفيدة للحفاظ على سلامة الناس ، فهذه أخبار مشجعة

بالنسبة لأي شخص يشعر بالقلق بشأن قضايا المراقبة التي لا تخضع للرقابة من قبل أي إشراف مدني ، يعد هذا توسعًا مزعجًا لتطبيقات الذكاء الاصطناعي.

ردة فعل المراقبة الجماعية

تتزايد الدعوات للمراقبة الجماعية ، التي تم تمكينها بواسطة تقنية مثل التعرف على الوجه ، بحيث لا يتم استخدامها على الإطلاق

ويبدو أنه سيكون هناك بعض القيود بعد كل شيء.

بعد تقرير مكثف عن المخاطر قبل عام ، وكتاب أبيض مصاحب ، وطلب آراء من العديد من "أصحاب المصلحة" ، نشرت المفوضية الأوروبية هذا الشهر اقتراحها بشأنالقواعد المنسقة بشأن الذكاء الاصطناعي للذكاء الاصطناعي ". من بين الشروط الحد من استخدام إنفاذ القانون للتعرف على الوجه في الأماكن العامة

"يُحظر أيضًا استخدام أنظمة تحديد الهوية عن بُعد" في الوقت الفعلي "في الأماكن المتاحة للجمهور لغرض إنفاذ القانون ما لم تنطبق بعض الاستثناءات المحدودة" ، كما جاء في التقرير.

يستمر رد الفعل العنيف ضد المراقبة في العثور على أمثلة جديدة تشير إليها

 كان المثال النموذجي هو مراقبة أخلاق الأويغور في منطقة Xianxjang الصينية

في أعقاب الانقلاب العسكري في فبراير / شباط في ميانمار ، ذكرت هيومن رايتس ووتش أن حقوق الإنسان في حالة توازن بالنظر إلى نظام المراقبة الذي تم إنشاؤه للتو

تم نشر هذا المشروع ، المسمى Safe City ، في العاصمة Naypidaw ، في ديسمبر

كما قال أحد الباحثين لـ هيومن رايتس ووتش ، "قبل الانقلاب ، حاولت حكومة ميانمار تبرير تقنيات المراقبة الجماعية باسم مكافحة الجريمة ، لكن ما تفعله هو تمكين المجلس العسكري المسيء".

حذرت لجنة الأمن القومي بشأن التقرير النهائي لمنظمة العفو الدولية في مارس / آذار من أن الولايات المتحدة ليست مستعدة للصراع العالمي الذي يستخدم الذكاء الاصطناعي.  

كما لو أن كل هذه التطورات لم تكن دراماتيكية بما فيه الكفاية ، فقد أصبح الذكاء الاصطناعي سباق تسلح ، وقد جعلت الدول الآن الذكاء الاصطناعي مسألة سياسة وطنية لتجنب ما يتم تقديمه على أنه خطر وجودي

أصدرت لجنة الأمن القومي الأمريكية المعنية بالذكاء الاصطناعي ، التي يعمل بها خبراء التكنولوجيا الكبار مثل الرئيس التنفيذي السابق لشركة Google ، إريك شميدت ، والرئيس التنفيذي لشركة أوراكل سافرا كاتز ، والرئيس التنفيذي القادم لشركة أمازون آندي جاسي ، الشهر الماضي "التقرير النهائي" المكون من 756 صفحة لما تسميه " استراتيجية لكسب عصر الذكاء الاصطناعي ".

وكتبوا "يخشى المؤلفون أن أدوات الذكاء الاصطناعي ستكون أسلحة الملاذ الأول في النزاعات المستقبلية" ، مشيرين إلى أن "خصوم الدولة يستخدمون بالفعل هجمات معلومات مضللة مدعومة بالذكاء الاصطناعي لزرع الانقسام في الديمقراطيات والتأثير على إحساسنا بالواقع".

الرسالة العامة للمفوضية هي أن "حكومة الولايات المتحدة ليست مستعدة للدفاع عن الولايات المتحدة في عصر الذكاء الاصطناعي القادم". للاستعداد ، يحتاج البيت الأبيض إلى جعل الذكاء الاصطناعي أولوية على مستوى مجلس الوزراء ، و "إرساء أسس تكامل واسع النطاق للذكاء الاصطناعي بحلول عام 2025." ويتضمن ذلك "بناء بنية تحتية رقمية مشتركة ، وتطوير قوة عاملة لديها ثقافة رقمية ، وإنشاء عمليات اكتساب وميزانية ورقابة أكثر مرونة".

أسباب القلق الأخلاقي في مجال الذكاء الاصطناعي

لماذا تظهر هذه القضايا؟ هناك قضايا تتعلق بالعدالة والاستبداد لا تتأثر بمرور الزمن ، ولكن هناك أيضًا مشاكل جديدة مع وصول الذكاء الاصطناعي ، وعلى وجه الخصوص متغير التعلم العميق الحديث.

لنتأمل الحادثة التي وقعت بين غوغل والباحثين جيبرو وميتشلفي قلب الخلاف كان هناك ورقة بحثية كان الاثنان يستعدان لعقد مؤتمر يبلور التساؤل عن حالة الفن في الذكاء الاصطناعي.

 

الورقة التي أثارت جدلاً في Google: Gebru and Bender and Major and Mitchell يجادلون بأن النماذج اللغوية الكبيرة جدًا مثل Google BERT تمثل خطرين: الاستهلاك الهائل للطاقة والتحيزات الدائمة.

بندر وآخرون

الورقة ، التي شارك في تأليفها إميلي بندر من جامعة واشنطن ، وجيبرو ، وأنجلينا ماكميلان ميجور ، وكذلك من جامعة واشنطن ، وميتشل ، بعنوانحول مخاطر الببغاوات العشوائية: هل يمكن أن تكون النماذج اللغوية كبيرة جدًا؟ " موضوع ضمن التعلم الآلي يسمى معالجة اللغة الطبيعية أو NLP.

يصف المؤلفون كيف أصبحت نماذج اللغة مثل GPT-3 أكبر وأكبر ، وبلغت ذروتها في نماذج لغة كبيرة جدًا "مُدربة مسبقًا" ، بما في ذلك Switch Transformer من Google ، والمعروف أيضًا باسم Switch-C ، والذي يبدو أنه أكبر نموذج تم نشره لـ تاريخيستخدم Switch-C 1.6 تريليون "أوزان" أو معلمات عصبية ، ويتم تدريبه على مجموعة من 745 جيجا بايت من البيانات النصية

يحدد المؤلفون اثنين من عوامل الخطر.

الأول هو التأثير البيئي للنماذج الأكبر والأكبر مثل Switch-C. تستهلك هذه النماذج كميات هائلة من الحوسبة ، وتولد كميات متزايدة من ثاني أكسيد الكربون

المسألة الثانية هي تكرار التحيزات في توليد السلاسل النصية التي تنتجها النماذج.

تعد قضية البيئة من أكثر الأمثلة وضوحًا على مسألة الحجم.

  فإن أحدث ما توصلت إليه البرمجة اللغوية العصبية ، وفي الواقع ، الكثير من التعلم العميق ، هو الاستمرار في استخدام المزيد والمزيد من رقائق GPU ، من Nvidia و AMD ، لتشغيل برامج أكبر من أي وقت مضىيبدو أن دقة هذه النماذج تزداد ، بشكل عام ، مع الحجم.

لكن هناك تكلفة بيئيةيستشهد بندر وفريقه بأبحاث سابقة أظهرت أن تدريب نموذج لغوي كبير ، وهو نسخة من محولات Google أصغر من Switch-C ، ينبعث منها 284 طنًا من ثاني أكسيد الكربون ، وهو ما يعادل 57 ضعف كمية ثاني أكسيد الكربون التي يُقدَّر للإنسان تكون مسؤولة عن إطلاقها في البيئة في غضون عام.

لاحظ المؤلفون أنه من المفارقات أن التكلفة المتزايدة باستمرار على البيئة لمزارع GPU الضخمة هذه تؤثر بشكل فوري على المجتمعات في طليعة خطر التغيير الذي لا تتكيف لغاته السائدة مع مثل هذه النماذج اللغوية ، ولا سيما السكان من أرخبيل جزر المالديف في بحر العرب ، ولغته الرسمية هي الديفيهي ، وهي فرع من الأسرة الهندية الآرية:

هل من العدل أم فقط أن نسأل ، على سبيل المثال ، أن سكان جزر المالديف (من المحتمل أن يكونوا تحت الماء بحلول عام 2100) أو 800000 شخص في السودان متأثرين بالفيضانات الشديدة يدفعون الثمن البيئي للتدريب ونشر نماذج اللغة الإنجليزية الأكبر حجمًا ] ، عندما لا يتم إنتاج نماذج كبيرة مماثلة للديفيهي أو العربية السودانية؟

يتعلق الشاغل الثاني بميل هذه النماذج اللغوية الكبيرة إلى إدامة التحيزات الموجودة في بيانات مجموعة التدريب ، والتي غالبًا ما تكون الكتابة المتاحة للجمهور والتي يتم إزالتها من أماكن مثل Reddit. إذا كان هذا النص يحتوي على تحيزات ، فسيتم التقاط هذه التحيزات وتضخيمها في المخرجات الناتجة

المشكلة الأساسية ، مرة أخرى ، هي مشكلة الحجممجموعات التدريب كبيرة جدًا ، ولا يمكن توثيق قضايا التحيز في الكود بشكل صحيح ، ولا يمكن تنسيقها بشكل صحيح لإزالة التحيز

كتب المؤلفون: "تشفر [النماذج اللغوية] الكبيرة وتعزز التحيزات المهيمنة ، والأضرار التي تلي ذلك من المرجح أن تقع على الفئات السكانية المهمشة".

أخلاقيات كفاءة الحوسبة 

لطالما كان خطر التكلفة الهائلة للحوسبة للنماذج الأكبر حجمًا موضوعًا للنقاش لبعض الوقت الآن

جزء من المشكلة هو أن مقاييس الأداء ، بما في ذلك استهلاك الطاقة ، غالبًا ما تكون مغطاة بالسرية.    

أصبحت بعض الاختبارات المعيارية في حوسبة الذكاء الاصطناعي أكثر ذكاءً قليلاً ، المقياس الرئيسي لأداء التدريب والاستدلال في الشبكات العصبية ، جهودًا لتوفير مقاييس أكثر تمثيلا لأنظمة الذكاء الاصطناعي لأعباء عمل معينة

هذا الشهر ، طلبت المنظمة التي تشرف على MLPerf ، MLCommons ، من البائعين لأول مرة إدراج ليس فقط الأداء ولكن الطاقة المستهلكة لمهام التعلم الآلي هذه .

بغض النظر عن البيانات ، فإن الحقيقة هي أن الأنظمة تكبر وتكبر بشكل عام.

كانت الاستجابة لمخاوف الطاقة داخل المجال ذات شقين: بناء أجهزة كمبيوتر أكثر كفاءة في معالجة النماذج الكبيرة ، وتطوير خوارزميات من شأنها حساب التعلم العميق بطريقة أكثر ذكاءً من مجرد إلقاء المزيد من الحوسبة على المشكلة .

 

محرك Cerebras's Wafer Scale Engine هو أحدث ما توصلت إليه حوسبة الذكاء الاصطناعي ، وهو أكبر شريحة في العالم ، مصمم للنطاق المتزايد باستمرار للأشياء مثل النماذج اللغوية

في النتيجة الأولى ، نشأت مجموعة من الشركات الناشئة لتقديم أجهزة كمبيوتر مخصصة للذكاء الاصطناعي يقولون إنها أكثر كفاءة من مئات أو آلاف وحدات معالجة الرسومات من Nvidia أو AMD المطلوبة عادةً اليوم

وهي تشمل أنظمة Cerebras ، التي كانت رائدة في تصنيع أكبر شريحة كمبيوتر في العالم ؛ Graphcore ، أول شركة تقدم نظام حوسبة مخصص للذكاء الاصطناعي ، بهندسة رقاقات جديدة خاصة بها ؛ و SambaNova Systems ، التي تلقت أكثر من مليار دولار من رأس المال الاستثماري لبيع كلا النظامين وكذلك عرض الذكاء الاصطناعي كخدمة.

قال كونلي أولوكوتون ، أستاذ علوم الكمبيوتر بجامعة ستانفورد وهو أحد مؤسسي SambaNova ، لـ ZDNet ، في إشارة إلى نماذج اللغة مثل BERT من Google: "هذه النماذج الكبيرة حقًا تتطلب أعدادًا هائلة من وحدات معالجة الرسومات لمجرد الاحتفاظ بالبيانات" .

قال Olukotun: "بشكل أساسي ، إذا كان بإمكانك تمكين شخص ما من تدريب هذه النماذج بنظام أصغر بكثير ، فيمكنك تدريب النموذج بطاقة أقل ، ويمكنك إضفاء الطابع الديمقراطي على القدرة على اللعب بهذه النماذج الكبيرة" ، من خلال إشراك المزيد من الباحثين.

يقوم أولئك الذين يصممون الشبكات العصبية للتعلم العميق باستكشاف الطرق التي يمكن أن تكون الأنظمة بها أكثر كفاءة في نفس الوقت

على سبيل المثال ، يمكن لـ Switch Transformer من Google ، وهو نموذج اللغة الكبير جدًا الذي أشار إليه Bender والفريق ، الوصول إلى نقطة مثالية في تدريبها بأقل بكثير من الحد الأقصى البالغ 1.6 تريليون معلمة ، وفقًا للمؤلف William Fedus وزملاؤه من Google State. 

وكتبوا أن البرنامج "هو أيضًا معمارية فعالة على المقاييس الصغيرة وكذلك في الأنظمة التي تحتوي على آلاف النوى وتريليونات من المعلمات". 

ويكتبوا أن المفتاح هو استخدام خاصية تسمى التباين ، والتي تعمل على تقليم أي من الأوزان يتم تنشيطها لكل عينة بيانات.

يقترح العلماء في جامعة رايس وإنتل تخفيض ميزانية الحوسبة للشبكات العصبية الكبيرة باستخدام جدول التجزئة الذي يحدد عمليات تنشيط الشبكة العصبية لكل مدخل ، وهو نوع من التقليم للشبكة

Chen et al.

طريقة أخرى للعمل بشكل أكثر ذكاء هي تقنية تسمى التجزئةيتجسد هذا النهج في مشروع يسمى "Slide" ، قدمه العام الماضي Beidi Chen من جامعة رايس والمتعاونين في Intel. يستخدمون شيئًا يسمى جدول التجزئة لتحديد الخلايا العصبية الفردية في الشبكة العصبية التي يمكن الاستغناء عنها ، وبالتالي تقليل الميزانية الإجمالية للحساب

يسمي تشين وفريقه هذا "التوزيع الانتقائي" ، وقد أظهروا أن تشغيل الشبكة العصبية يمكن أن يكون أسرع بمقدار 3.5 مرة على وحدة المعالجة المركزية ذات 44 نواة مقارنة بوحدة معالجة الرسومات Nvidia Tesla V100.

طالما أن الشركات الكبيرة مثل Google و Amazon تهيمن على التعلم العميق في البحث والإنتاج ، فمن الممكن أن "الأكبر هو الأفضل" سيهيمن على الشبكات العصبية.

 إذا كان المستخدمون الأصغر حجمًا والأقل ثراءً بالموارد يأخذون التعلم العميق في مرافق أصغر ، فقد تكسب الخوارزميات الأكثر كفاءة متابعين جدد.  

أخلاقيات الذكاء الاصطناعي: تاريخ من الماضي القريب

المسألة الثانية ، انحياز الذكاء الاصطناعي ، تعمل في خط مباشر من Bender et al. عودة إلى ورقة بحثية في عام 2018 ألقت الضوء على الحقبة الحالية في أخلاقيات الذكاء الاصطناعي ، الورقة التي كانت اللقطة التي سمعت `` حول العالم ، كما يقولون.

جذب Buolamwini و Gebru الانتباه الدولي إلى مسألة التحيز في الذكاء الاصطناعي من خلال بحثهما الصادر عام 2018 بعنوان "ظلال بين الجنسين: تفاوتات الدقة المتداخلة في التصنيف التجاري بين الجنسين" ، والتي كشفت أن أنظمة التعرف على الوجه التجارية أظهرت "تباينات كبيرة في دقة تصنيف الإناث الداكنة ، والأخف وزناً.

الإناث والذكور الأكثر قتامة والذكور الفاتحة في أنظمة تصنيف الجنس ".

Buolamwini وآخرون. 2018

ورقة 2018 هذه ، الظلال بين الجنسين: تفاوتات الدقة المتقاطعة في التصنيف التجاري للجنس " ، من تأليف جيبرو ، الذي كان يعمل وقتها في Microsoft ، جنبًا إلى جنب مع الباحثة جوي بولامويني في معهد ماساتشوستس للتكنولوجيا . لقد أظهروا كيف كانت أنظمة التعرف على الوجه المتوفرة تجاريًا ذات دقة عالية عند التعامل مع صور الرجال ذوي البشرة الفاتحة ، ولكن عدم الدقة بشكل كارثي عند التعامل مع صور النساء ذوات البشرة الداكنة .

كان السؤال الحاسم الذي طرحه المؤلفون هو سبب التسامح مع عدم الدقة هذا في الأنظمة التجارية

قدم Buolamwini و Gebru ورقتهما في مؤتمر Association for Computing Machinery حول العدالة والمساءلة والشفافية . هذا هو نفس المؤتمر الذي قدم فيه بندر وفريقه ورقة ببغاء في فبراير. (جيبرو هو أحد مؤسسي المؤتمر(.

ما هو التحيز في الذكاء الاصطناعي؟

تتعامل كل من Gender Shades و Parrot مع الاهتمام الأخلاقي المركزي في الذكاء الاصطناعي ، وهو مفهوم التحيزيستخدم الذكاء الاصطناعي في شكل التعلم الآلي الخاص به استخدامًا مكثفًا لمبادئ الإحصاء

في الإحصاء ، التحيز هو عندما يتبين أن تقدير شيء ما لا يتطابق مع الكمية الحقيقية لذلك الشيء

لذلك ، على سبيل المثال ، إذا أجرى أحد المستطلعين السياسيين استطلاعًا لتفضيلات الناخبين ، وإذا حصل فقط على ردود من الأشخاص الذين يتحدثون إلى متلقي الاقتراع ، فقد يحصلون على ما يسمى تحيز الاستجابة ، حيث يقدرون تفضيل مرشح معين الشعبية ليست انعكاسًا دقيقًا للتفضيل لدى عموم السكان.

شرعت ورقة Gender Shades في عام 2018 في إظهار كيف أن الخوارزمية ، في هذه الحالة التعرف على الوجه ، يمكن أن تكون بعيدة كل البعد عن الحقيقة ، وهو شكل من أشكال التحيز الذي يصيب مجموعة فرعية معينة من السكان

تقدم سريعًا ، وتوضح ورقة Parrot كيف أن هذا التحيز الإحصائي قد تفاقم بسبب تأثيرات المقياس بطريقتين محددتين

إحدى الطرق هي أن مجموعات البيانات قد انتشرت وازداد حجمها ، مما أدى إلى حجب تكوينهايمكن أن يؤدي هذا الغموض إلى التعتيم على الكيفية التي قد تكون بها البيانات متحيزة بالفعل مقابل الحقيقة

ثانيًا ، تعد برامج البرمجة اللغوية العصبية مثل GPT-3 إنتاجية ، مما يعني أنها تغمر العالم بكمية مذهلة من التحف التكنولوجية التي تم إنشاؤها مثل الكتابة التي تم إنشاؤها تلقائيًا

من خلال إنشاء مثل هذه القطع الأثرية ، يمكن تكرار التحيزات وتضخيمها في العملية ، وبالتالي انتشار مثل هذه التحيزات

التشكيك في مصدر بيانات الذكاء الاصطناعي

في النتيجة الأولى ، مقياس مجموعات البيانات ، جادل العلماء لتجاوز مجرد تعديل نظام التعلم الآلي من أجل التخفيف من التحيز ، وبدلاً من ذلك التحقيق في مجموعات البيانات المستخدمة لتدريب مثل هذه النماذج ، من أجل استكشاف التحيزات الموجودة في البيانات نفسها

قبل طردها من فريق الذكاء الاصطناعي الأخلاقي في Google ، قادت ميتشل فريقها لتطوير نظام يسمى "Model Cards" للتنقيب عن التحيزات المخبأة في مجموعات البيانات.

 ستبلغ كل بطاقة نموذجية عن مقاييس لنموذج شبكة عصبية معين ، مثل النظر في خوارزمية للعثور تلقائيًا على "صور مبتسمة" والإبلاغ عن معدل الإيجابيات الخاطئة والمقاييس الأخرى.

ميتشل وآخرون.

أحد الأمثلة على ذلك هو نهج ابتكره ميتشل وفريقه في Google يسمى بطاقات النموذج

كما هو موضح في الورقة التمهيدية ، البطاقات النموذجية لإعداد التقارير النموذجية " ، يجب اعتبار مجموعات البيانات على أنها بنية تحتية

سيؤدي القيام بذلك إلى كشف "ظروف خلقهم" التي غالبًا ما يتم حجبها

يقترح البحث التعامل مع مجموعات البيانات باعتبارها مسألة "هندسة مدفوعة بالهدف" ، وطرح أسئلة مهمة مثل ما إذا كان يمكن الوثوق بمجموعات البيانات وما إذا كانت تبني تحيزات

مثال آخر هو ورقة بحثية صدرت العام الماضي في حالة أخلاقيات الذكاء الاصطناعي ، بقلم إميلي دينتون وزملاؤها في Google بعنوان " إعادة الناس إلى الداخل " ، حيث اقترحوا ما يسمونه سلسلة نسب البيانات ، بهدف "التحقيق كيف ولماذا تم إنشاء مجموعات البيانات هذه ، وماذا وقيمها التي تؤثر على اختيارات البيانات التي يجب جمعها ، والظروف السياقية والطارئة لإنشائها ، وظهور القواعد والمعايير الحالية لممارسة البيانات. "

وصف فيناي برابهو ، كبير العلماء في UnifyID ، في حديث في ستانفورد العام الماضي ، القدرة على التقاط صور لأشخاص من ImageNet ، وإطعامهم إلى محرك بحث ، ومعرفة الأشخاص في العالم الحقيقي

وهو يجادل بأنه "مرحلة الحساسية" لمجموعات البيانات ، عندما يمكن استهداف الأشخاص من خلال تخصيص صورهم.

برابهو 2020

لقد ألقى العلماء بالفعل الضوء على الظروف الغامضة لبعض مجموعات البيانات الأكثر بروزًا المستخدمة في نماذج البرمجة اللغوية العصبية السائدة

على سبيل المثال ، قام فيناي عدي برابهو ، كبير العلماء في شركة Startup UnifyID Inc. ، في حديث افتراضي في جامعة ستانفورد العام الماضي بفحص مجموعة بيانات ImageNet ، وهي مجموعة من 15 مليون صورة تم تصنيفها بالأوصاف

يمكن القول إن إدخال ImageNet في عام 2009 أدى إلى بدء عصر التعلم العميق.

وأوضح برابهو أن هناك مشاكل ، مع ذلك ، مع ImageNet ، لا سيما حقيقة أنها استولت على صور شخصية من Flickr دون موافقة

قال برابهو إن هذه الصور غير التوافقية تقع في أيدي آلاف الكيانات في جميع أنحاء العالم ، وهذا يؤدي إلى مخاطر شخصية حقيقية للغاية ، كما قال ، فيما أسماه "مرحلة الحساسية" ، وهي غزو واسع النطاق للخصوصية

باستخدام ما يسمى بالبحث العكسي عن الصور ، عبر خدمة تجارية عبر الإنترنت ، تمكن برابهو من التقاط صور ImageNet للأشخاص و "معرفة من هم في العالم الحقيقي بسهولة." قال برابهو إن شركات مثل كليرفيو هي مجرد عرض لتلك المشكلة الأوسع لنوع من الغزو الصناعي للخصوصية.

الذكاء الاصطناعي الشرير

سعى مشروع طموح إلى تصنيف هذا التملك غيرالمشروع.

يسمى Exposing.ai ، وهو عمل لآدم هارفي وجولز لابلاس ، وقد ظهر لأول مرة رسميًا في يناير.

أمضى المؤلفون سنوات في تتبع كيفية تخصيص الصور الشخصية دون موافقة لاستخدامها في مجموعات تدريب التعلم الآلي

الموقع عبارة عن محرك بحث حيث يمكن للمرء "التحقق مما إذا كانت صورك على Flickr قد تم استخدامها في العشرات من مجموعات بيانات صور الوجه العام والصورة الحيوية الأكثر استخدامًا واستشهادًا بها [...] لتدريب تقنيات مراقبة الذكاء الاصطناعي أو اختبارها أو تحسينها لاستخدامها في المجال الأكاديمي أو التطبيقات التجارية أو المتعلقة بالدفاع "، كما يصفها Harvey و LaPlace.

الجانب المظلم من جمع البيانات

يجادل البعض بأن القضية تتجاوز مجرد محتويات البيانات إلى وسائل إنتاجها

خدمة Amazon Mechanical Turk منتشرة في كل مكان كوسيلة لتوظيف البشر لإعداد مجموعات بيانات ضخمة ، مثل وضع الملصقات على الصور لـ ImageNet أو لتقييم محادثات بوت الدردشة

و المادة الشهر الماضي من قبل نائب ونقلت الصورة Aliide نايلور العمال الترك الميكانيكية الذين شعروا بالإكراه في بعض الحالات لتحقيق نتائج تمشيا مع هدف محدد سلفا

تهدف ملاحظات Turkopticon إلى تسليح العمال في Amazon's Mechanical Turk بتقييمات صادقة لظروف العمل الخاصة بالتعاقد مع العديد من العملاء الأتراك.

توركوبتيكون

نشأ مشروع يسمى Turkopticon لمراجعات المصادر الجماعية للأطراف التي تتعاقد مع Mechanical Turk ، لمساعدة العمال الأتراك على تجنب العملاء المسيئين أو المشبوهين.

 إنها محاولة لتخفيف ما يراه الكثيرون على أنه محنة مزعجة للطبقة الدنيا المتزايدة من العمال بالقطعة ، ما أطلق عليه ماري جراي وسيدهارث سوري من مايكروسوفتالعمل الشبحي ".

هناك علامات صغيرة وصلت رسالة القلق بشأن مجموعة البيانات إلى المنظمات الكبيرة التي تمارس التعلم العميق.

 أعلن موقع Facebook هذا الشهر عن مجموعة بيانات جديدة لم يتم إنشاؤها من خلال تخصيص الصور الشخصية بل من خلال إنشاء مقاطع فيديو أصلية لأكثر من ثلاثة آلاف ممثل مدفوع الأجر وافقوا على الظهور في مقاطع الفيديو.

توضح الورقة التي أعدها المؤلف الرئيسي كانر هازرباس وزملاؤه أن مجموعة بيانات "المحادثات غير الرسمية" تتميز بحقيقة أن "شروح العمر والجنس يقدمها الأشخاص أنفسهم". تم شرح نوع بشرة كل شخص من قبل المؤلفين باستخدام ما يسمى بمقياس Fitzpatrick ، ​​وهو نفس المقياس الذي استخدمه Buolamwini و Gebru في ورقة ظلال النوع.

في الواقع ، أشار هزرباس وفريقه بشكل بارز إلى ظلال النوع كسابقة

وجد Hazirbas وزملاؤه أنه ، من بين أمور أخرى ، عندما يتم اختبار أنظمة التعلم الآلي مقابل مجموعة البيانات الجديدة هذه ، تظهر بعض حالات الفشل نفسها كما حددها Buolamwini و Gebru. كتبوا: "لقد لاحظنا تحيزًا حسابيًا واضحًا تجاه الأشخاص ذوي البشرة الفاتحة".  

بصرف النظر عن النتائج ، فإن أحد أكثر السطور دلالة في الورقة هو التغيير المحتمل في الموقف من الاقتراب من البحث ، وهو خط إنساني وسط الهندسة

كتب Hazirbas والفريق "نحن نفضل هذا النهج الذي يركز على الإنسان ونعتقد أنه يسمح لبياناتنا بالحصول على نظرة غير منحازة نسبيًا للعمر والجنس".

 

تم إصدار مجموعة بيانات المحادثات غير الرسمية على Facebook ، والتي تم إصدارها في أبريل ، لتكون طريقة أكثر صدقًا لاستخدام التشابه في تدريب الذكاء الاصطناعيدفعت الشركة للممثلين لنمذجة مقاطع الفيديو وسجلت بشرتهم بناءً على مقياس جلدي

Hazirbas et al.

تطور آخر مثير للاهتمام هو قرار MLCommons ، اتحاد الصناعة الذي ينشئ معيار MLPerf ، لإنشاء مجموعة بيانات جديدة لاستخدامها في الكلام إلى نص ، مهمة تحويل الصوت البشري إلى سلسلة من النص الذي تم إنشاؤه تلقائيًا

تحتوي مجموعة البيانات ، خطاب الشعب ، على 87000 ساعة من الكلام المنطوقمن المفترض تدريب المساعدين الصوتيين مثل Amazon's Alexa. الهدف من مجموعة البيانات هو أنها مقدمة بموجب ترخيص مفتوح المصدر ، ومن المفترض أن تكون متنوعة: فهي تحتوي على كلام بـ 59 لغة

على المطالبات مجموعة "مع الكلام الشعبية، MLCommons سيخلق فرصا لتوسيع نطاق تقنيات الكلام المتقدمة إلى العديد من اللغات وتساعد على تقديم فوائد المساعده.

خطاب لسكان العالم بأكمله بدلا من حصرها المتحدثين من اللغات الأكثر شيوعا . "

كل شيء توليدي: صعود المزيف 

يتم تضخيم القضايا الأخلاقية للتحيز من خلال العامل الثاني الذي حددته ورقة Parrot ، حقيقة أن الشبكات العصبية أكثر وأكثر "توليد" ، بمعنى أنها لا تعمل فقط كأدوات لصنع القرار ، مثل آلة الانحدار الخطي الكلاسيكية برنامج التعلمإنهم يغمرون العالم بالإبداعات

المثال الكلاسيكي هو "StyleGAN" ، الذي قدمته Nvidia عام 2018 وتم إتاحته على Github. يمكن استخدام البرنامج لإنشاء وجوه واقعية: لقد ولّد حقبة من التشابه المزيف

يقدم تقرير مؤشر الذكاء الاصطناعي في جامعة ستانفورد ، الذي صدر في مارس ، ملخصًا سنويًا عن حالة اللعب في مختلف جوانب الذكاء الاصطناعي

يصف الإصدار الأخير ما تسميه "كل شيء توليدي" ، وانتشار هذه المصنوعات الرقمية الجديدة.

ويشير التقرير إلى أن "أنظمة الذكاء الاصطناعي يمكنها الآن تكوين نصوص وصوت وصور بمستوى عالٍ بما يكفي بحيث يصعب على البشر معرفة الفرق بين المخرجات الاصطناعية وغير الاصطناعية لبعض التطبيقات المقيدة للتكنولوجيا".

"يعد ذلك بتوليد مجموعة هائلة من التطبيقات النهائية للذكاء الاصطناعي للأغراض المفيدة اجتماعياً والأغراض الأقل فائدة."

لا أحد من هؤلاء الناس حقيقيأذهل تيرو كاراس وزملاؤه العالم في عام 2019 بتشبيهات زائفة مدهشة ، والتي قاموا بإنشائها باستخدام خوارزمية جديدة أطلقوا عليها اسم بنية المولدات القائمة على النمط لشبكات الخصومة التوليدية ، أو StyleGAN. 

الائتمان: Kerras et al. 2019

تتعدد الأضرار المحتملة للذكاء الاصطناعي التوليدي

هناك انتشار للنص يلخص التحيزات المجتمعية ، كما أشارت ورقة Parrot. لكن هناك أنواعًا أخرى من التحيزات التي يمكن إنشاؤها بواسطة الخوارزميات التي تعمل على تلك البيانات.

يتضمن ذلك ، على سبيل المثال ، الخوارزميات التي تهدف إلى تصنيف الوجوه البشرية إلى فئات "الجاذبية" أو "عدم الجاذبية .

يمكن استخدام ما يسمى بالخوارزميات التوليدية ، مثل شبكات GAN ، لإعادة إنتاج صياغة ضيقة إلى ما لا نهاية لما يُزعم أنه جذاب من أجل إغراق العالم بهذه الجمالية الخاصة لاستبعاد كل شيء آخر.

من خلال تخصيص البيانات وإعادة تشكيلها ، تثير شبكات GAN جميع أنواع الأسئلة الأخلاقية الجديدة المتعلقة بالتأليف والمسؤولية والائتمان.

 تم بيع الأعمال الفنية التوليدية بالمزاد مقابل مبالغ كبيرة من المال

لكن لمن هم أعمالهم؟ إذا كانت مناسبة للمواد الموجودة ، كما هو الحال في العديد من أجهزة GAN ، فمن المفترض إذن أن يحصل على الائتمان؟ هل المهندس الذي بنى الخوارزمية أم الفنانون البشريون الذين تم استخدام عملهم لتدريب الخوارزمية؟

هناك أيضًا موجة DeepFake ، حيث يمكن للصور المزيفة والتسجيلات المزيفة والنصوص المزيفة ومقاطع الفيديو المزيفة أن تضلل الناس بشأن ظروف الأحداث

 هذا الشخص غير موجود ، إنه مصنوع عبر برنامج مشتق من StyleGAN.

هذا الأمر ليس موجودًا

والمجال الناشئ هو اختلاق هويات مزيفةباستخدام مواقع مثل thispersondoesnotexist.com ، التي تم إنشاؤها من كود StyleGAN ، يمكن للأشخاص إعداد رؤى مقنعة تمثل دمجًا للميزاتلاحظ الباحث رومان تشودري من تويتر أن مثل هذه الوجوه الزائفة يمكن استخدامها في حسابات اجتماعية مزيفة والتي هي بعد ذلك أداة يمكن للأشخاص بواسطتها مضايقة الآخرين على وسائل التواصل الاجتماعي

رأى الرأسمالي الاستثماري كونستانتين بوهلر من شركة سيكويا كابيتال أن الشخصيات المخترعة ، ربما مثل الصور الرمزية ، ستصبح بشكل متزايد جزءًا طبيعيًا من تفاعل الأشخاص عبر الإنترنت

الشخصيات المزيفة ، والتزييف العميق ، والتحيزات المضخمة ، والاستيلاء دون رصيد ، ومسابقات الجمال - كل هذه التطورات التوليدية هي قطعة واحدة

إنها الانتشار السريع للقطع الأثرية الرقمية دون أي رقابة أو مناقشة للتداعيات.

تصنيف مخاطر الذكاء الاصطناعي

يتمثل التحدي الرئيسي لأخلاقيات الذكاء الاصطناعي في تحديد المشكلة بشكل صحيح

تم تخصيص قدر كبير من المنح الدراسية الرسمية المنظمة في السنوات الأخيرة لمسألة تحديد نطاق واتساع القضايا الأخلاقية

على سبيل المثال ، قدمت منظمة Future of Life غير الربحية مليوني دولار في شكل منح لعشرة مشاريع بحثية حول هذا الموضوع في عام 2018 ، بتمويل من Elon Musk. صدرت الكثير من التقارير والمقترحات من قبل المؤسسات في السنوات القليلة الماضيةوتشغل AI Ethics الآن دورًا تنفيذيًا في العديد من الشركات

تسعى العديد من التقارير السنوية إلى تصنيف أو تجميع القضايا الأخلاقية.

دراسة لمنظمة العفو الدولية التي كابجيميني نشرت في أكتوبر الماضي، "منظمة العفو الدولية واللغز الأخلاقي،" حددت أربعة ناقلات الأخلاق في التعلم الآلي: explainability والنزاهة، والشفافية، وإمكانية مراجعة حساباتها، وهذا يعني، والقدرة على مراجعة جهاز نظام التعلم لتحديد كيفية العمل

وفقًا لكابجيميني ، فإن القابلية للتفسير هي الوحيدة التي أظهرت أي تقدم من عام 2019 إلى عام 2020 ، في حين تم العثور على الثلاثة الآخرين "ضعيفي القوة" أو "فشلوا في التطور".

تم تقديم ملخص واسع النطاق ومفيد للغاية للعديد من القضايا المتعلقة بأخلاقيات الذكاء الاصطناعي في تقرير يناير ، حالة أخلاقيات الذكاء الاصطناعي " ، من قبل مجموعة غير ربحية معهد مونتريال لأخلاقيات الذكاء الاصطناعي.

يجمع المنشور البحثي العديد من الأوراق العلمية الأصلية ، وكذلك التغطية الإعلامية ، ويلخصها وينظمها حسب العدد

المستخلص من التقرير هو أن قضايا الأخلاق تغطي نطاقًا أوسع بكثير مما قد يعتقده المرء.

وهي تشمل الظلم الخوارزمي والتمييز وتأثيرات العمل والمعلومات المضللة والخصوصية والمخاطر والأمن.

محاولة قياس الأخلاق

وفقًا لبعض العلماء الذين أمضوا وقتًا في البحث في البيانات المتعلقة بالأخلاق ، فإن العامل المحدد الرئيسي هو عدم وجود بيانات كمية كافية

كان هذا أحد الاستنتاجات التي تم تقديمها الشهر الماضي في مؤشر الذكاء الاصطناعي السنوي الرابع ، الذي وضعه HAI ، معهد الذكاء الاصطناعي المرتكز على الإنسان في جامعة ستانفورد.

في الفصل المخصص للأخلاق ، لاحظ العلماء أنهم "فوجئوا باكتشاف قلة البيانات حول هذا الموضوع". 

كتب المؤلفون: "على الرغم من أن عددًا من المجموعات ينتج مجموعة من المخرجات النوعية أو المعيارية في مجال أخلاقيات الذكاء الاصطناعي ، فإن هذا المجال يفتقر عمومًا إلى المعايير التي يمكن استخدامها لقياس أو تقييم العلاقة بين المناقشات المجتمعية الأوسع حول تطوير التكنولوجيا و تطوير التكنولوجيا نفسها ".

تصدر مجموعة الذكاء الاصطناعي المتمحورة حول الإنسان بجامعة ستانفورد سنويًا تقرير مؤشر الذكاء الاصطناعي ، وهو تقرير موجز عن أهم الاتجاهات في مجال الذكاء الاصطناعي ، بما في ذلك المخاوف الأخلاقية.

تثير محاولات قياس الأخلاق أسئلة حول ما يحاول المرء قياسهخذ مسألة التحيزيبدو الأمر بسيطًا بما يكفي للقول إن الإجابة على التحيز هي تصحيح التوزيع الإحصائي لتحقيق قدر أكبر من "الإنصاف". اقترح البعض أن هذا نهج مفرط في التبسيط.

من بين مشاريع ميتشل عندما كانت تعمل في Google كان نقل حدود مناقشة التحيز إلى ما وراء قضايا الإنصاف والمعنى ، والتشكيك في التوازن في مجموعات البيانات الذي قد يعنيه لمختلف المجموعات السكانية في سياق العدالة

في عمل العام الماضي ، التنوع ومقاييس الشمول في اختيار المجموعة الفرعية " ، طبق ميتشل والفريق نظرية المجموعات لإنشاء إطار عمل قابل للقياس الكمي لما إذا كانت خوارزمية معينة تزيد أو تقلل من مقدار "التنوع" و "التضمين". تتجاوز هذه المصطلحات مقدار تمثيل مجموعة معينة في المجتمع لتقيس بدلاً من ذلك درجة وجود السمات في مجموعة ، على أساس الجنس أو العمر ، على سبيل المثال

باستخدام هذا النهج ، يمكن للمرء أن يبدأ في القيام بأشياء مثل قياس مجموعة بيانات معينة لمدى تحقيقها "للأهداف الأخلاقية" ، على سبيل المثال ، المساواة ، والتي من شأنها "تفضيل الأفراد المحرومين من الخدمة والذين يتشاركون سمة".

وضع مدونة لقواعد السلوك

أعلن عدد من المؤسسات عن تأييدها للمبدأ الأخلاقي بشكل أو بآخر ، على الرغم من أن فائدة تلك الإعلانات هي مسألة نقاش

من أشهر التصريحات المبدئية إعلان مونتريال لعام 2018 بشأن الذكاء الاصطناعي المسؤول من جامعة مونتريال.

 يؤطر هذا الإعلان العديد من الأهداف السامية ، مثل استقلالية البشر ، وحماية الخصوصية الفردية

 

يعد إعلان مونتريال الصادر عن جامعة مونتريال أحد أكثر البيانات المبدئية شهرة في مجال الذكاء الاصطناعي.

تشمل المؤسسات التي تعلن شكلاً من أشكال الموقف فيما يتعلق بأخلاقيات الذكاء الاصطناعي شركات التكنولوجيا الكبرى مثل IBM و SAP و Microsoft و Intel و Baidu ؛ الهيئات الحكومية مثل مجلس اللوردات في المملكة المتحدة ؛ المؤسسات غير الحكومية مثل الفاتيكان ؛ المنظمات التقنية المرموقة مثل IEEE ؛ والهيئات المشكلة خصيصًا مثل المجموعة الأوروبية للمفوضية الأوروبية المعنية بأخلاقيات العلوم والتقنيات الجديدة.

قامت شركة الأبحاث The AI Ethics Lab بتجميع قائمة بالمؤسسات التي أعلنت تأييدها للأخلاقيات في هذا المجال منذ عام 2015 في آخر إحصاء ، بلغ إجمالي القائمة 117 منظمة.

يشير مؤشر الذكاء الاصطناعي من HAI التابع لجامعة ستانفورد إلى عمل المختبر.

ليس من الواضح أن كل هذه التصريحات تعني الكثير في هذه المرحلة.

خلصت دراسة أجراها مختبر أخلاقيات الذكاء الاصطناعي ، نُشرت في ديسمبر ، في المجلة المرموقة كوميونيكيشنز أوف إيه سي إم ، إلى أن كل التفكير العميق من قبل تلك المنظمات لا يمكن حقًا وضعه موضع التنفيذ

وكما كتب كانسو كانكا ، مدير المختبر ، فإن الإعلانات العديدة كانت "في الغالب مبادئ مصاغة بشكل غامض". والأهم من ذلك ، لقد أربكوا ، كتبوا كانكا ، نوعين من المبادئ الأخلاقية ، ما يعرف بالجوهر ، وما يعرف بالأدوات

بالاعتماد على العمل الطويل الأمد في مجال أخلاقيات علم الأحياء ، يقترح كانكا أن أخلاقيات الذكاء الاصطناعي يجب أن تبدأ بثلاثة مبادئ أساسية ، وهي الاستقلالية ؛ المقايضة بين التكلفة والفائدة ؛ والعدالةكتب كانكا أن تلك هي "القيم التي تدعي النظريات في الفلسفة الأخلاقية والسياسية أنها ذات قيمة جوهرية ، بمعنى أن قيمتها ليست مشتقة من شيء آخر". 

كيف تقوم بتفعيل الأخلاق في الذكاء الاصطناعي؟

كتب كانكا أن كل شيء آخر في أخلاقيات الذكاء الاصطناعي سيكون مفيدًا ، بمعنى ، مهم فقط إلى الحد الذي يضمن المبادئ الأساسية.

لذا ، فإن الشفافية ، على سبيل المثال ، مثل شفافية تشغيل نموذج الذكاء الاصطناعي ، أو قابلية التفسير ، ستكون مهمة ليس في حد ذاتها ، ولكن إلى الحد الذي يجعلها "مفيدة لدعم القيم الجوهرية لاستقلالية الإنسان والعدالة".

أصبح التركيز على تفعيل الذكاء الاصطناعي اتجاهًا .

كتاب قيد النشر حاليًا من قبل Abhishek Gupta من Microsoft ، Actionable AI Ethics ، الذي سيصدر في وقت لاحق من هذا العام ، يتناول أيضًا موضوع التشغيلغوبتا هو مؤسس معهد مونتريال لأخلاقيات الذكاء الاصطناعي

 

يدعي أبهيشيك أن الكتاب سيستعيد الإشارة من الضجيج في "المشهد المجزأ للأدوات والإطار في أخلاقيات الذكاء الاصطناعي." 

يعد الكتاب بمساعدة المنظمات "على إثارة درجة عالية من الثقة من عملائها في المنتجات والخدمات التي يبنونها."

وفي سياق مماثل ، صرح ريان كالو ، أستاذ القانون في جامعة واشنطن ، خلال مناظرة منظمة العفو الدولية رقم 2 في ديسمبر أن المبادئ تنطوي على مشاكل لأنها "ليست ذاتية التنفيذ" ، حيث "لا توجد عقوبات مرتبطة بانتهاكها. "

قال كارو: "المبادئ لا معنى لها إلى حد كبير لأنها مصممة عمليًا لتقديم ادعاءات لا ينازعها أحد". "هل يعتقد أي شخص أن الذكاء الاصطناعي يجب أن يكون غير آمن؟

بدلاً من ذلك ، "ما نحتاج إلى القيام به هو نشمر عن سواعدنا وتقييم كيفية تأثير الذكاء الاصطناعي على الموارد البشرية ، ثم تعديل نظام القوانين لدينا وفقًا لهذا التغيير.

"فقط لأن الذكاء الاصطناعي لا يمكن تنظيمه على هذا النحو ، لا يعني أنه لا يمكننا تغيير القانون استجابةً له."

لمن هذه الخوارزمية ، على أي حال؟

يمكن للذكاء الاصطناعي ، مثل أي أداة في أيدي البشر ، أن يضر ، كما كتب بطل الشطرنج العالمي لمرة واحدة غاري كاسباروف

كتب كاسباروف في كتابه الصادر عام 2017 بعنوان Deep Thinking: "إن الخوارزمية التي تنتج نتائج متحيزة أو طائرة بدون طيار تقتل الأبرياء لا تتصرف بوظيفة أو غرض ؛ إنها آلات تقوم بمزايداتنا بنفس وضوح اليد التي تمسك بمطرقة أو مسدس: حيث ينتهي ذكاء الآلة ويبدأ الإبداع البشري.

تقدم أحدث المنح الدراسية في مجال أخلاقيات الذكاء الاصطناعي خطوة إلى الأمام.

 يسأل ما هي المؤسسات البشرية مصدر تلك الأدوات المنحازة والخطيرة

بعض هذه المنح الدراسية تجد طريقها أخيرًا إلى السياسة ، والأهم من ذلك ، العمليات .

أعلن موقع تويتر هذا الشهر عن ما أسماهالتعلم الآلي المسؤول " تحت إشراف عالم البيانات شودري ومديرة المنتج جوتا ويليامز

كتب الثنائي في رسالتهما الافتتاحية حول الموضوع أن الهدف في Twitter لن يكون فقط تحقيق بعض الذكاء الاصطناعي "القابل للتفسير" ، ولكن أيضًا ما يسمونه "اختيار الخوارزمية".

كتب الثنائي: "سيسمح خيار الخوارزمية للأشخاص بالحصول على مزيد من المدخلات والتحكم في تشكيل ما يريدون أن يكون عليه Twitter بالنسبة لهم". "نحن حاليًا في المراحل الأولى لاستكشاف هذا وسنشارك المزيد قريبًا."

الذكاء الاصطناعي: مجال ضيق للغاية؟

تعمل الجهود الأخلاقية على دفع قيود تخصص علوم الكمبيوتر الذي ، كما يقول البعض ، لا يهتم كثيرًا بمجالات المعرفة الأخرى ، بما في ذلك أنواع الأسئلة الفلسفية العميقة التي أثارها مارسيل

في ورقة نُشرت الشهر الماضي من قبل Inioluwa Deborah Raji من مؤسسة Mozilla والمتعاونين ، لا يمكنك الجلوس معنا: علم أصول التدريس الإقصائي في تعليم أخلاقيات الذكاء الاصطناعي " ، حلل الباحثون أكثر من 100 منهج دراسي مستخدم لتدريس أخلاقيات الذكاء الاصطناعي على مستوى الجامعةاستنتاجهم هو أن الجهود المبذولة لإدخال الأخلاق في علوم الكمبيوتر مع "رش الأخلاقيات والعلوم الاجتماعية" لن تؤدي إلى تغيير ذي مغزى في كيفية إنشاء هذه الخوارزميات ونشرها

يكتب راجي والمتعاونون أن الانضباط في الواقع يزداد انعزالية ، من خلال البحث عن حلول تقنية بحتة للمشكلة ورفض دمج ما تم تعلمه في العلوم الاجتماعية وغيرها من مجالات الدراسة الإنسانية

"النظام الذي تم انتقاده لولا ذلك بسبب افتقاره للمشاركة الأخلاقية يأخذ الآن عباءة غرس الحكمة الأخلاقية لجيله القادم من الطلاب" ، هكذا يصف راجي وفريقه الموقف.

تطور الذكاء الاصطناعي بالوعي الرقمي

إن مخاطر الحجم التي تمت مناقشتها في هذا الدليل تترك جانباً مجالاً واسعاً لاستكشاف الذكاء الاصطناعي ، واحتمال وجود ذكاء قد يعترف به البشر يشبه الإنسانالمصطلح لذلك هو الذكاء العام الاصطناعي ، أو AGI. 

تثير مثل هذه المعلومات الاستخبارية مخاوف مزدوجة .

ماذا لو سعت مثل هذه الاستخبارات إلى تعزيز مصالحها على حساب المصالح الإنسانية؟ على العكس من ذلك ، ما هو الالتزام الأخلاقي الذي يجب على البشر احترام حقوق مثل هذا الذكاء بنفس الطريقة التي يجب أن يُنظر بها إلى حقوق الإنسان؟

الذكاء الاصطناعي العام هو في الأساس مجال البحث الفلسفي.

 الحكمة التقليدية هي أن الذكاء الاصطناعي العام (AGI) قد توقف بعد عدة عقود، إذا كان من الممكن تحقيقهومن ثم، فإن الاجترار يميل إلى أن يكون تخمينيًا للغاية وواسع النطاق

في الوقت نفسه، جادل البعض بأن الافتقار إلى الذكاء الاصطناعي العام هو بالتحديد أحد الأسباب الرئيسية لانتشار التحيز والأمراض الأخرى للذكاء الاصطناعي التقليدي.

  بندر وآخرون يؤكد أن مسألة الأخلاق تعود في نهاية المطاف إلى الجودة الضحلة للتعلم الآلي، وميلها إلى التقاط الخصائص الإحصائية لشكل اللغة الطبيعية دون أي "فهم" حقيقي.

جادل غاري ماركوس وأرنست ديفيس في كتابهما Rebotting AI بأن الافتقار إلى الفطرة السليمة في برامج التعلم الآلي هو أحد أكبر العوامل في الضرر المحتمل من البرامج.

يعكس هذا الرأي مخاوف كل من ممارسي التعلم الآلي ومنتقديه

أستاذ علم النفس في جامعة نيويورك ورائد الأعمال في مجال الذكاء الاصطناعي ، جاري ماركوس ، أحد أكثر نقاد التعلم الآلي صراحة ، يجادل بأنه لا يمكن الوثوق في أي نظام هندسي يؤثر على حياة الإنسان إذا لم يتم تطويره بقدرة على المستوى البشري للحس السليم.

 يستكشف ماركوس هذه الحجة بتفصيل كبير في كتابه لعام 2019 Rebooting AI ، الذي كتبه مع زميله إرنست ديفيس

خلال مناظرة الذكاء الاصطناعي 2 ، التي نظمها ماركوس في ديسمبر ، ناقش العلماء كيف يمكن للجودة الضحلة للتعلم الآلي أن تديم التحيزات.

 لاحظت سيليست كيد ، أستاذة جامعة كاليفورنيا في بيركلي ، أن أنظمة الذكاء الاصطناعي للتوصية بالمحتوى ، مثل الشبكات الاجتماعية ، يمكن أن تدفع الناس نحو "معتقدات أقوى وغير دقيقة ، على الرغم من جهودنا الأفضل يصعب تصحيحها".

قال كيد: "إن التحيزات في أنظمة الذكاء الاصطناعي تعزز وتقوي التحيز لدى الأشخاص الذين يستخدمونها". 

الذكاء الاصطناعي من أجل الخير: ما هو الممكن؟

على الرغم من المخاطر ، فإن الاتجاه المعاكس القوي في الذكاء الاصطناعي هو الاعتقاد بأن الذكاء الاصطناعي يمكن أن يساعد في حل بعض أكبر مشاكل المجتمع

يعتقد Tim O'Reilly ، ناشر الكتب التقنية التي تستخدمها أجيال متعددة من المبرمجين ، أن مشاكل مثل تغير المناخ أكبر من أن يتم حلها دون استخدام بعض الذكاء الاصطناعي

على الرغم من مخاطر الذكاء الاصطناعي ، فإن الإجابة هي المزيد من الذكاء الاصطناعي ، كما يعتقد ، وليس أقل.

في معرض التعبير عن الانقسام بين التأثيرات الجيدة والسيئة ، كتب ستيفن ميلز ، الذي يشرف على أخلاقيات الذكاء الاصطناعي لمجموعة بوسطن الاستشارية ، في مقدمة كتاب حالة أخلاقيات الذكاء الاصطناعي ، أن الذكاء الاصطناعي له طبيعة مزدوجة:

يمكن للذكاء الاصطناعي تضخيم انتشار الأخبار المزيفة ، ولكنه يمكن أن يساعد البشر أيضًا في التعرف عليها وتصفيتها ؛ يمكن للخوارزميات أن تديم التحيزات المجتمعية المنهجية ، ولكنها قد تكشف أيضًا عن عمليات اتخاذ القرار غير العادلة ؛ يمكن أن يكون لنماذج التدريب المعقدة بصمة كربونية كبيرة ، لكن الذكاء الاصطناعي يمكنه تحسين إنتاج الطاقة وعمليات مركز البيانات.

الذكاء الاصطناعي للعثور على التحيزات 

مثال على الذكاء الاصطناعي الذي تحول إلى فائدة محتملة هو استخدام التعلم الآلي للكشف عن التحيزاتكانت إحدى هذه الدراسات  عبارة عن قصة غلاف في شهر نوفمبر في مجلة Nature حول تجربة أجراها دومينيك هانجارتنر وزملاؤه في ETH Zurich و The London School of Economics. قام المؤلفون بفحص النقرات على قوائم المتقدمين للوظائف على موقع إلكتروني من قبل مسؤولي التوظيف في سويسرا.

 أظهروا أن العرق والجنس كان لهما تأثير سلبي كبير على احتمالية عروض العمل ، حيث أدى عدم المساواة إلى تقليل فرص النساء والأفراد من مجموعات الأقليات العرقية

الدراسة مثيرة للاهتمام لأن نتائجها الإحصائية كانت ممكنة فقط بسبب أدوات التعلم الآلي الجديدة التي تم تطويرها في العقد الماضي

استخدم Hangartner وزملاؤه في ETH Zurich وكلية لندن للاقتصاد تقنيات جديدة للتعلم الآلي لعزل التحيزات التي تؤدي إلى التمييز من قبل المجندين عند مراجعة الطلبات عبر الإنترنت.

هانجارتنر وآخرون.

من أجل التحكم في السمات غير العرقية وغير الجنسية ، استخدم العمل طريقة طورها ألكسندر بيلوني من جامعة ديوك وزملاؤه والتي تحدد السمات ذات الصلة التي يجب قياسها بناءً على البيانات ، بدلاً من تحديدها مسبقًا.

 يصبح النموذج الإحصائي أكثر قوة في قياسه كلما تعرض للبيانات ، وهو جوهر التعلم الآلي.  

التقدم في المركبات ذاتية القيادة التي تعمل بالذكاء الاصطناعي

إحدى الفئات الواسعة من الإمكانات التي يحب المدافعون عن الذكاء الاصطناعي الصناعي الإشارة إليها هي تقليل الحوادث عبر المركبات ذاتية القيادة التي تستخدم شكلاً من أشكال نظام مساعدة السائق المتقدم ، أو ADAS. هذه هي مستويات مختلفة من المناورات التلقائية بما في ذلك التسارع التلقائي أو الفرملة للمركبة أو تغيير المسار

هيئة المحلفين لا تزال خارج بشأن مقدار السلامة التي تم تحسينهاخلال مؤتمر نظمته جمعية مهندسي السيارات العام الماضي ، تم تقديم بيانات عن 120 سائقًا خلال إجمالي 216،585 ميلاً في عشر مركبات منفصلة باستخدام ما حددته الجمعية "المستوى 2" من ADAS ، حيث يجب على الإنسان الاستمرار في مراقبة الطريق بينما يقوم الكمبيوتر بإجراء المناورات الآلية

في الاجتماع ، قال ممثل معهد التأمين للسلامة على الطرق السريعة ، ديفيد زوبي ، بعد مراجعة بيانات مطالبات التأمين ، إن "أنظمة المستوى 2 في المركبات التي تمت دراستها - التركيز على" القوة "- مرتبطة بتردد أقل من مطالبات الأعطال مقابل تغطية التأمين ".

إن تحديد إيجابيات القيادة الذاتية أصبح أكثر تعقيدًا بسبب شد الحبل بين الصناعة والهيئات التنظيميةقام ماسك من تسلا بالتغريد حول سلامة سيارات شركته ، وغالبًا ما يكون غير محسوب على التحقيقات الرسمية.

في هذا الشهر ، بينما كان المحققون يبحثون في مسألة سيارة Tesla Model S سيدان في تكساس التي فشلت في التفاوض على منحنى ، واصطدمت بشجرة ، واشتعلت فيها النيران ، مما أسفر عن مقتل شخصين داخل السيارة ، قام ماسك بتغريد ما وجدته شركته من السيارة. سجلات البيانات قبل أن يحظى المحققون بفرصة الاطلاع على تلك السجلات ، كما ذكرت رويترز.

تسلا مع الطيار الآلي تعمل الآن تقترب من فرصة وقوع حادث أقل بـ 10 مرات من متوسط ​​السيارة https://t.co/6lGy52wVhC

- إيلون ماسك (elonmusk) ١٧ أبريل ٢٠٢١

تركز TuSimple ، شركة تكنولوجيا الشاحنات المستقلة ، على جعل الشاحنات تقود طرقًا محددة مسبقًا فقط بين نقطة الأصل ومحطة الوجهةفي نشرة الاكتتاب العام ، تجادل الشركة بأن مثل هذه المسارات المحددة مسبقًا ستقلل من عدد "حالات الحافة" ، وهي أحداث غير عادية يمكن أن تؤدي إلى مشكلات تتعلق بالسلامة

تقوم TuSimple ببناء المستوى 4 ADAS ، حيث يمكن للشاحنة التحرك دون وجود سائق بشري في الكابينة

الذكاء الاصطناعي لتعزيز اكتشاف الأدوية

مجال التعلم الآلي الذي قد يصل إلى إنجاز ذي مغزى قبل الأتمتة هو مجال اكتشاف الأدويةشركة شابة أخرى أصبحت شركة عامة ، Recursion Pharmaceuticals ، كانت رائدة في استخدام التعلم الآلي لاستنتاج العلاقات بين مركبات الأدوية والأهداف البيولوجية ، والتي تدعي أنها يمكن أن توسع بشكل كبير عالم التركيبات المركبة والأهداف التي يمكن البحث عنها.

لم ينتج عن Recursion فائزًا بعد ، ولا توجد أي شركات برمجيات في الأدوية ، ولكن من الممكن أن تكون هناك نتائج ملموسة من التجارب السريرية في العام المقبل أو نحو ذلكتمتلك الشركة 37 برنامجًا دوائيًا في طور الإعداد ، منها 4 في المرحلة الثانية من التجارب السريرية ، وهي المرحلة الثانية من ثلاث مراحل ، عندما يتم تحديد الفعالية ضد المرض

 

تقول شركة Recursion Pharmceuticals الناشئة في مدينة سالت ليك ، والتي تم طرحها للجمهور في بورصة ناسداك تحت العلامة "RXRX" ، إنها يمكن أن تستخدم التعلم الآلي لإنشاء "خط أنابيب مثالي للأدوية.

عمل شركات مثل Recursion له جاذبية ذات شقينأولاً ، قد يجد الذكاء الاصطناعي مركبات جديدة ، تركيبات كيميائية لم يكن ليأتي إليها أي عالم مختبرات ، أو لا يوجد احتمال كبير

 ثانيًا ، يمكن إعادة توجيه المكتبة الضخمة التي تضم آلاف المركبات وآلاف الأدوية التي تم تطويرها بالفعل ، وفي بعض الحالات حتى تم اختبارها وتسويقها ، إلى حالات استخدام جديدة إذا تمكن الذكاء الاصطناعي من التنبؤ بمدى نجاحها في مواجهة الأمراض التي لم تكن موجودة من قبل.

هذه الآلية الجديدة لما يسمى بإعادة توظيف العقاقير ، وإعادة استخدام ما تم استكشافه وتطويره بالفعل بتكلفة هائلة ، يمكن أن تجعل إيجاد علاجات للأمراض اليتيمة أمرًا اقتصاديًا ، وهي ظروف يكون فيها السوق عادةً صغيرًا جدًا بحيث لا يجتذب استثمارات أصلية من قبل الدولة.

صناعة الادوية.

تشمل التطبيقات الأخرى للذكاء الاصطناعي في تطوير الأدوية ضمان تغطية أكبر لمجموعات فرعية من السكانعلى سبيل المثال ، طور علماء معهد ماساتشوستس للتكنولوجيا العام الماضي نماذج للتعلم الآلي للتنبؤ بمدى تغطية لقاحات COVID-19 الأشخاص من أصل جيني أبيض وأسود وآسيويووجدت تلك الدراسة أنه "في المتوسط ​​، يمكن أن يكون لدى الأشخاص من أصل أسود أو آسيوي زيادة طفيفة في خطر عدم فعالية اللقاح" عند إعطاء لقاحات موديرنا ، فايزر وأسترازينيكا

بدأ الذكاء الاصطناعي للتو في مجال تغير المناخ .

المجال الذي يقوم فيه علماء الذكاء الاصطناعي بنشاط بإجراء أبحاث مكثفة هو تغير المناخ

قدمت منظمة Climate Change AI ، وهي مجموعة من الباحثين المتطوعين من المؤسسات حول العالم ، في ديسمبر من عام 2019 ، 52 ورقة بحثية تستكشف العديد من الجوانب حول كيفية تأثير الذكاء الاصطناعي على تغير المناخ ، بما في ذلك تنبؤات الطقس في الوقت الفعلي ، مما يجعل المباني أكثر طاقة- كفاءة ، واستخدام التعلم الآلي لتصميم مواد أفضل للألواح الشمسية

 الكثير من العمل المناخي في دوائر الذكاء الاصطناعي في مرحلة البحث الأساسيةمثال على ذلك مشروع من قبل GE ومعهد جورجيا للتكنولوجيا ، يسمى "Cumulo" ، والذي يمكنه استيعاب صور السحب بدقة 1 كيلومتر ، وتصنيف نوع السحابة بالبكسل بكسلتؤثر أنواع الغيوم في العالم على النماذج المناخية ، لذلك لا يمكنك في الواقع نمذجة المناخ بدقة كبيرة دون معرفة الأنواع الموجودة وإلى أي مدى

Zantedeschi et al.

يتمتع الكثير من عمل الذكاء الاصطناعي بشأن المناخ في هذا الوقت بجودة إرساء الأساس لسنوات من البحثلم يتضح بعد ما إذا كانت التحسينات التي ستخرج من تلك المنحة ستؤدي إلى تقليل الانبعاثات ، أو مدى السرعة.

عندما تفشل النوايا الحسنة في الذكاء الاصطناعي 

أحد العناصر المهمة للذكاء الاصطناعي في العالم هو أنه يمكن أن يتعارض مع أفضل الممارسات التي تم وضعها بالفعل في مجال معين من المجالات

وخير مثال على ذلك هو السعي لتطبيق الذكاء الاصطناعي لاكتشاف COVID-19. في أوائل من عام 2020 ، عندما كانت اختبارات COVID-19 المستندة إلى مجموعات تفاعل البوليميراز المتسلسل في الوقت الفعلي (RT-PCR) غير متوفرة على مستوى العالم ، عمل علماء الذكاء الاصطناعي في الصين وأماكن أخرى مع أخصائي الأشعة لمحاولة تطبيق التعلم الآلي لفحص الصدر تلقائيًا با الاشعة والصور الشعاعية ، كوسيلة لتسريع انتشار (كوفيد -19 . (

يمكن أن تظهر الأشعة السينية أو التصوير الشعاعي للصدر عتامة الزجاج الأرضي ، وهي علامة منبهة للمرض .

لكن أوجه القصور في الذكاء الاصطناعي فيما يتعلق بأفضل الممارسات الراسخة في مجال البحث الطبي والبحث الإحصائي ، تعني أن معظم هذه الجهود قد باءت بالفشل ، وفقًا لورقة بحثية نُشرت في مجلة Nature Machine Intelligence الشهر الماضي من تأليف مايكل روبرتس. جامعة كامبريدج وزملاؤها

من بين جميع برامج التعلم الآلي العديدة التي تم إنشاؤها للمهمة ، "لا يوجد أي منها جاهز حاليًا للنشر سريريًا" ، كما وجد المؤلفون ، خسارة هائلة لتقنية واعدة

لمعرفة السبب ، نظر العلماء في ألفي ورقة بحثية في الأدبيات من العام الماضي ، واختصروها في النهاية إلى مسح شمل اثنين وستين ورقة تفي بمعايير بحث مختلفةووجدوا أن "العديد من الدراسات تعوقها مشكلات البيانات ذات الجودة الرديئة ، والتطبيق السيئ لمنهجية التعلم الآلي ، وقابلية التكاثر الضعيفة والتحيزات في تصميم الدراسة."

من بين التوصيات ، يقترح المؤلفون عدم الاعتماد على "مجموعات بيانات فرانكشتاين" المجمعة معًا من المستودعات العامة ، وهو تحذير يردد مخاوف جيبرو وميتشل وآخرين بشأن مجموعة البيانات

يوصي المؤلفون أيضًا باتباع نهج أكثر قوة للتحقق من صحة البرامج ، مثل التأكد من أن بيانات التدريب الخاصة بالتعلم الآلي لا تدخل في مجموعة بيانات التحقق من الصحةكانت هناك أيضًا بعض أفضل الممارسات للبحث القابل للتكرار التي لم يتم اتباعهاعلى سبيل المثال ، "كانت النقطة الأكثر شيوعًا التي أدت إلى الاستبعاد هي الفشل في تحديد تقنيات المعالجة المسبقة للبيانات بتفاصيل كافية."


التهديد الأكبر هو أمية الذكاء الاصطناعي

ربما تكون أعظم قضية أخلاقية هي تلك التي تلقت أقل معاملة من الأكاديميين والشركات: معظم الناس ليس لديهم فكرة عن ماهية الذكاء الاصطناعي حقًا.

 الجمهور بشكل عام يجهل الذكاء الاصطناعي ، إذا صح التعبير

يرجع الجهل جزئيًا إلى ما يُسمَّى بالصحافة المتملقَّة ، التي تروج لمزاعم الشركات غير المفحوصة حول ما يمكن أن يفعله الذكاء الاصطناعي

لكن الجهل من جانب الصحفيين يعكس أيضًا الجهل المجتمعي الأوسع

لماذا تعد تقارير الذكاء الاصطناعي سيئة للغاية؟

ركزت محاولات التعامل مع هذه الفجوة المعرفية حتى الآن على تحطيم الأسطورة.

 قدم الباحثون في مؤسسة Mozilla dot org العام الماضي جهدًا لفضح الهراء حول الذكاء الاصطناعي ، والذي يُطلق عليه أساطير الذكاء الاصطناعي

لا يبدو أن خرق الأسطورة ، أو عار الجهل ابن عمها ، قد اكتسب انتشارًا واسعًا في هذه المرحلة.

 كانت هناك دعوات للحصول على تعليم رسمي في الذكاء الاصطناعي في سن مبكرة ، لكن الناس بحاجة إلى معرفة القراءة والكتابة في جميع الأعمار لأنه مع النضج الفكري تأتي مستويات مختلفة من الفهم

هناك عروض عملية يمكن أن تساعد بالفعل البالغين على تصور قضايا التحيز الخوارزمي ، على سبيل المثال:

أنتج فريق Google يسمى People + AI Research عروض توضيحية تفاعلية تتيح للمرء أن يشعر بالكيفية التي يظهر بها التحيز في الطريقة التي يتم بها اختيار الصور ردًا على استفسار حول الرؤساء التنفيذيين أو الأطباء.

 تحسين الصور على طول مسار ضيق واحد عن طريق اختيار وفرة ، على سبيل المثال ، صور الذكور البيض للمديرين التنفيذيين والأطباء في مجموعة البيانات هي أحد المخاطر التي يمكن نقلها بصريًا.

أيضًاما هو الذكاء الاصطناعي؟ كل ما تحتاج لمعرفته حول الذكاء الاصطناعي

يمكن لمثل هذه الدراسات أن تجلب للجمهور فهمًا أكثر واقعية لطبيعة الخوارزميات

ما لا يزال ينقصنا هو فهم النطاق الواسع لمجموعة من التقنيات التي تحول المدخلات إلى مخرجات

سعى مشروع معهد ماساتشوستس للتكنولوجيا العام الماضي ، بقيادة مرشح الدكتوراه زيف إبشتاين ، إلى فهم سبب وجود أفكار رهيبة لدى الجمهور حول الذكاء الاصطناعي ، وخاصة الافتراضات المجسمة التي تنسب الوعي إلى برامج التعلم العميق حيث لا يوجد وعي في الواقع.

اقتراح Epstein هو إعطاء المزيد من الأشخاص خبرة عملية باستخدام أدوات التعلم الآلي

قال إبستين لـ ZDNet: "إن أفضل طريقة للتعرف على شيء ما هي أن تصبح ملموسًا وملموسًا حقًا ، وأن تلعب به بنفسك" . "أشعر أن هذه هي أفضل طريقة ليس فقط للحصول على فهم فكري ولكن أيضًا فهم بديهي لكيفية عمل هذه التقنيات وتبديد الأوهام."

ما نوع الوظيفة الموضوعية التي يريدها المجتمع؟

يمكن أن يكشف النظر إلى ماهية الآلة وكيفية عملها عن الأشياء التي يجب التفكير فيها بعمق أكبر

وصف يوشوا بنجيو Yoshua Bengio من معهد MILA للذكاء الاصطناعي في مونتريال ، وهو رائد في التعلم العميق ، برامج التعلم العميق بأنها تتكون من ثلاثة أشياء: الهندسة المعمارية ، أي الطريقة التي يتم بها دمج الخلايا العصبية الاصطناعية ؛ قاعدة التعلم ، والتي تعني الطريقة التي يتم بها تصحيح أوزان الشبكة العصبية لتحسين الأداء ، مثل النسب المتدرج العشوائي ؛ ووظيفة موضوعية

هناك البيانات ، التي يمكنك التفكير فيها كعنصر رابع ، إذا أردت.

يركز الكثير من عمل اليوم على البيانات ، وكان هناك فحص دقيق لمقياس البنى ، كما هو الحال في ورقة Parrot ، لكن الوظيفة الموضوعية قد تكون الحدود النهائية للأخلاق

الوظيفة الموضوعية ، والمعروفة أيضًا باسم وظيفة الخسارة ، هي الشيء الذي يحاول المرء تحسينهيمكن النظر إليه من الناحية الفنية البحتة كإجراء رياضيومع ذلك ، في كثير من الأحيان ، يتم تصميم الوظيفة الموضوعية لتعكس الأولويات التي يجب التحقيق فيها هي نفسها

صنفت عالمة الرياضيات كاثي أونيل العديد من الأساليب التي تعتمد على الإحصائيات لتحسين الأشياء على أنها "أسلحة تدمير الرياضيات" ، وهو عنوان كتابها لعام 2016 حول كيفية إساءة استخدام الخوارزميات في جميع أنحاء المجتمع

يوضح أونيل أن المشكلة المركزية هي مشكلة الإقصاءيمكن للخوارزميات أن تفرض وظيفة موضوعية ضيقة للغاية بحيث تعطي الأولوية لشيء واحد مع استبعاد كل شيء آخركتب أونيل: "بدلاً من البحث عن الحقيقة ، تأتي النتيجة لتجسيدها".

يتبادر إلى الذهن مثال شبكات GAN التي تتمثل وظيفتها في الخسارة في إنشاء الصورة المزيفة "الأكثر جاذبية" لشخص ما

 لماذا، يمكن للمرء أن يسأل، والأدوات التي خصصت لإنشاء أكثر جاذبية أي شيء ؟ 

المثال الكلاسيكي لوظيفة موضوعية في غير محله هو استخدام التعلم الآلي لاكتشاف المشاعرمن المفترض أن تكون البرامج قادرة على تصنيف الحالة العاطفية للشخص بناءً على التعرف على الصور التي تحدد تعابير الوجه وقد تم تدريبها على ربطها بسمات المشاعر مثل الخوف والغضب

لكن عالمة النفس ليزا فيلدمان باريت انتقدت العلم الكامن وراء مثل هذا المخططلم يتم تدريب أنظمة التعرف على المشاعر على اكتشاف العواطف ، وهي أنظمة معقدة ودقيقة من الإشارات ، ولكن بدلاً من ذلك لتجميع حركات العضلات المختلفة في صناديق محددة مسبقًا تسمى هذه المشاعر أو تلك

الشبكة العصبية هي مجرد إعادة إنشاء التصنيف الاختزالي الخام إلى حد ما والمشكوك فيه إلى حد ما والذي استندت إليه

الوظيفة الموضوعية ، إذن ، هي شيء ناتج عن مفاهيم ومفاهيم وصياغات ومواقف مختلفة ، وما إلى ذلك. يمكن أن تكون هذه الأولويات الفردية للباحثين ، أو يمكن أن تكون أولويات الشركةيجب فحص الوظيفة الموضوعية والتشكيك فيها

تضغط الأبحاث من Gebru و Mitchell وعلماء آخرين ضد تلك الوظائف الموضوعية ، حتى مع تصنيع التكنولوجيا ، عبر شركات مثل Clearview ، بسرعة تضاعف عدد الوظائف الموضوعية التي يتم تأسيسها في الممارسة.

في اجتماع الذكاء الاصطناعي لتغير المناخ في ديسمبر 2019 ، سُئل بنجيو من MILA كيف يمكن للذكاء الاصطناعي كنظام تحفيز العمل في مجال تغير المناخ.

أجاب بنجيو: "غيّر وظيفتك الموضوعية". وقال: "نوع المشاريع التي نتحدث عنها في ورشة العمل هذه يمكن أن يكون أكثر تأثيرًا بكثير من التحسين التدريجي الإضافي في شبكات GAN ، أو شيء من هذا القبيل".

يقول ستيوارت راسل ، الباحث في جامعة ستانفورد ، إن البشر بحاجة إلى البدء في التفكير الآن في كيفية إخبار الذكاء الاصطناعي القوي في المستقبل باتباع أهداف "متوافقة مع البشر".

ستيوارت راسل

يقول البعض إن إمكانات الذكاء الاصطناعي العام في يوم من الأيام تعني أن المجتمع بحاجة إلى تصحيح وظيفته الموضوعية الآن

لاحظ ستيوارت راسل ، أستاذ الذكاء الاصطناعي في جامعة كاليفورنيا في بيركلي ، أنه "إذا كنا نبني آلات تتخذ قرارات أفضل مما نستطيع ، فمن الأفضل أن نتأكد من أنها تتخذ القرارات في مصلحتنا ".

للقيام بذلك ، يحتاج البشر إلى بناء آلات ذكية ليس كثيرًا في تحقيق هدف تعسفي ، بل هدف البشرية

"ما نريده هو آلات مفيدة لنا ، عندما تُرضي أفعالهم تفضيلاتنا".

يتطلب الذكاء الاصطناعي إعادة النظر في العقد الاجتماعي

من الواضح أن المواجهة حول أخلاقيات الذكاء الاصطناعي تحدث على خلفية أوسع من المواجهة حول أولويات المجتمع في العديد من مجالات مكان العمل والتكنولوجيا والثقافة والممارسة الصناعية

كتبت شوشانا زوبوف في كتابها The Age of Surveillance Capitalism: "يتخطى العالم الرقمي ويعيد تعريف كل شيء مألوف حتى قبل أن تتاح لنا الفرصة للتفكير واتخاذ القرار".

شوشانا زوبوف

إنها أسئلة أثيرت عدة مرات في الماضي فيما يتعلق بالآلات والأشخاصصاغ شوشانا زوبوف ، مؤلف كتب مثل In the Age of the Smart Machine و The Age of Surveillance Capitalism ، السؤال الأخلاقي الأساسي على أنه "هل يمكن أن يكون المستقبل الرقمي وطننا؟

واجه بعض التقنيين ممارسات لا علاقة لها بالذكاء الاصطناعي لكنها لا ترقى إلى مستوى ما يعتبرونه عادلاً.

تيم براي ، المهندس المتميز الذي ساعد في بناء لغة برمجة جافا ، ترك أمازون العام الماضي بعد خمس سنوات قضاها ، احتجاجًا على تعامل الشركة مع النشطاء في صفوف العاملين لديها

جادل براي ، في مقال يشرح مغادرته ، بأن إقالة الموظفين الذين يشكون من أعراض الرأسمالية الحديثة.

وكتب براي: "وفي نهاية المطاف ، لا تكمن المشكلة الكبرى في تفاصيل استجابة COVID-19". "الأمر يتعلق بأن أمازون تتعامل مع البشر في المستودعات كوحدات قابلة للاستبدال لإمكانية الانتقاء والتعبئة.

هذا ليس فقط أمازون ، إنه الطريقة التي تتم بها رأسمالية القرن الحادي والعشرين." 

تشير تأملات براي إلى أن أخلاقيات الذكاء الاصطناعي لا يمكن فصلها عن الفحص العميق لأخلاقيات المجتمعتشير جميع المنح الدراسية المتعلقة بمجموعات البيانات والخوارزميات والتحيز والباقي إلى حقيقة أن الوظيفة الموضوعية للذكاء الاصطناعي لا تتشكل على أرض محايدة ولكن في سياق مجتمعي

صرحت باميلا ماكوردوك ، مؤرخة الذكاء الاصطناعي ، لـ ZDNet في عام 2019 ، بالتأمل في عقود من المنح الدراسية من قبل مجموعة من الذكور البيض تمامًا من الباحثين الأوائل في الذكاء الاصطناعي ، أن الذكاء الاصطناعي يخلق بالفعل عالمًا جديدًا بمجموعة ضيقة بشكل لا يصدق من الأولويات.

وقالت: "قال أحدهم ، لقد نسيت من ، في أوائل القرن الحادي والعشرين ، خلق مجالًا جديدًا بالكامل يعكس تمامًا المجتمع الأوروبي في العصور الوسطى". "لا تحتاج النساء أو الأشخاص الملونين إلى التقدم." 

ونتيجة لذلك ، فإن التحدي الأخلاقي الذي نشأ سوف يتطلب إعادة فحص كاملة لأولويات المجتمعات ، كما جادل ماكوردوك.

"إذا أخذت وجهة النظر الطويلة جدًا ، أعتقد أنه سيتعين علينا إعادة كتابة العقد الاجتماعي لزيادة التركيز على أولوية البشر ومصالحهم

وقالت: "خلال الأربعين عامًا الماضية أو أكثر ، تم وصف ثروة الفرد من حيث صافي الثروة ، ومقدار الأموال أو الأصول بالضبط" ، وهي حالة "تبدو مروعة جدًا". 

"هناك طرق أخرى لقياس قيمة الإنسان."

author-img
خريج بكالوريوس حاسوب قسم نظم المعلومات الإدارية خبير في مجال التسويق والتجارة الإلكترونية مهتم بالتدوين وكتابه المحتوى الذي اتمنى ان يستفيد منه كل من يزور هذه المدونه

تعليقات

التنقل السريع