مقدمة في أخلاقيات الذكاء الاصطناعي - الذكاء الاصطناعي - ثالث ثانوي

التنمية المستدامة للذكاء الاصطناعي في المملكة العربية السعودية
عين 2024
02:31
(0) 0 التقييم التعليقات المشاركة

300 6. الذكا ء الاصطناعي والمجتمع و سيتعرف الطالب في هذه الوحدة على أخلاقيات الذكاء الاصطناعي وتأثيرها على تطوير أنظمته المتقدمة وتحديد توجهاتها، وسيقيم مدى تأثير أنظمة الذكاء الاصطناعي واسعة النطاق على المجتمعات والبيئة، وكيفية تنظيم مثل هذه الأنظمة للاستخدام الأخلاقي المستدام، وسيستخدم بعد ذلك مُحاكي ويبوتس (Webots) لبرمجة طائرة مسيرة على الحركة الذاتية واستكشاف منطقة ما من خلال تحليل الصور أهداف التعلم بنهاية هذه الوحدة سيكون الطالب قادرًا على أن : يُعرف أخلاقيات الذكاء الاصطناعي. > يُفسر مدى تأثير التحيز والإنصاف على الاستخدام الأخلاقي لأنظمة الذكاء > الاصطناعي. يُقيم كيفية حل مشكلة الشفافية وقابلية التفسير في الذكاء الاصطناعي. يُحلل كيفية تأثير أنظمة الذكاء الاصطناعي واسعة النطاق على المجتمع وكيفية وضع قوانين لتنظيمها. > يُبرمج جهاز الطائرة المسيرة على الحركة الذاتية. و يُطور نظام تحليل الصور لطائرة مُسيَّرة تُستخدم في استطلاع منطقة معينة. الأدوات > ويبوتس (Webots) > مكتبة أوبن سي في (OpenCV Library) وزارة التعليم Ministry of Education 2024-1446

الدرس الأول: مقدمة في أخلاقيات الذكاء الاصطناعي

الذكاء الاصطناعي والمجتمع

شرح الذكاء الاصطناعي والمجتمع

الدرس الأول رابط الدرس الرقمي مقدمة في أخلاقيات الذكاء الاصطناعي نظرة عامة على أخلاقيات الذكاء الاصطناعي Overview of Al Ethics www.ien.edu.sa أخلاقيات الذكاء الاصطناعي : (Al Ethics) استمرار تقدُّم الذكاء الاصطناعي تزايدت أهمية التفكير في الآثار الأخلاقية المترتبة مع على استخدام هذه التقنية، ومن المهم أن يفهم المواطن في عالمنا الحديث الدور الهام تشير أخلاقيات الذكاء الاصطناعي لأخلاقيات الذكاء الاصطناعي إذا أردنا تطوير أنظمة ذكاء اصطناعي مسؤولة واستخدامها. إلى المبادئ والقيم، والمعايير إن أحد الأسباب الرئيسة للتأكيد على أهمية أخلاقيات الذكاء الاصطناعي هو التأثير الأخلاقية التي تُنظم تطوير أنظمة الكبير لأنظمة الذكاء الاصطناعي على حياة الانسان. على سبيل المثال، يُمكن استخدام الذكاء الاصطناعي وانتشارها خوارزميات الذكاء الاصطناعي لاتخاذ قرارات التوظيف والعلاج الطبي، وإذا كانت هذه واستخدامها . الخوارزميات مُتحيّزة أو تمييزية ، فقد تُؤدي إلى نتائج غير عادلة تضر بالأفراد والمجتمعات. أمثلة من العالَم الواقعي على المخاوف الأخلاقية في مجال الذكاء الاصطناعي Real-World Examples of Ethical Concerns in Al الخوارزميات التمييزية هناك مواقف تدل على أن أنظمة الذكاء الاصطناعي تميل إلى التحيز والتمييز ضد فئات معينة من البشر. على سبيل المثال وجدت دراسة أجراها المعهد الوطني للمعايير والتقنية National Institute of Standards and Technology) أن نِسب الخطأ في تقنية التعرُّف على الوجه تكون أعلى عند التعرُّف على وجوه الأشخاص ذوي البشرة الداكنة؛ مما قد يؤدي إلى تحديد هويات خاطئة واعتقالات خاطئة. ومن الأمثلة الأخرى على ذلك استخدام خوارزميات الذكاء الاصطناعي في نظام العدالة الجنائية، إذ أظهرت الدراسات أن هذه الخوارزميات يُمكن أن تكون مُتحيّزة ضد الأقليات مما يُؤدي إلى عقوبات أقسى. انتهاك الخصوصية 이 يُمكن أن تكون أنظمة الذكاء الاصطناعي التي تجمع البيانات وتُحلّلها مصدر تهديد للخصوصية الشخصية. على سبيل المثال: جمعت شركة استشارات سياسية في عام 2018 م بيانات الملايين من مستخدمي فيسبوك (Facebook) دون موافقتهم واستخدمتها للتأثير على الحملات السياسية، وأثار هذا الحادث المخاوف بشأن استخدام الذكاء الاصطناعي وتحليلات البيانات في التلاعب بالرأي العام، وانتهاك حقوق خصوصية الأفراد. الأسلحة ذاتية التحكم تطوير الأسلحة ذاتية التحكم التي يُمكن أن تعمل دون تدخل بشري له مخاوف أخلاقية بشأن استخدام الذكاء الاصطناعي في الحروب، حيث يرى فريق من المنتقدين أن هذه الأسلحة يُمكن أن تتخذ قرارات مصيرية دون إشراف بشري ويمكن برمجتها لاستهداف مجموعات معينة من الناس، مما قد ينتهك القانون الإنساني الدولي ويُؤدي إلى وقوع إصابات في صفوف المدنيين. التسريح من الوظائف أثار الاستخدام المتزايد للذكاء الاصطناعي والأتمتة (Automation) في مختلف الصناعات المخاوف بشأن تسريح البشر من وظائفهم وتأثيره على سُبل عيش العاملين، فعلى الرغم من أن الذكاء الاصطناعي يُمكنه أن يُؤدي إلى تحسين الكفاءة والإنتاجية، إلا أنه يُمكن أن يُؤدي أيضًا إلى فقدان البشر لوظائفهم وتزايد عدم المساواة في الدخل؛ مما قد يكون له عواقب اجتماعية واقتصادية سلبية. 301 وزارة التعليم Ministry of Education 2024-1446

الدرس الأول: مقدمة في أخلاقيات الذكاء الاصطناعي

نظرة عامة على أخلاقيات الذكاء الاصطناعي

شرح نظرة عامة على أخلاقيات الذكاء الاصطناعي

أمثلة من العالم الواقعي على المخاوف الأخلاقية في مجال الذكاء الاصطناعي: الخوارزميات التمييزية

شرح أمثلة من العالم الواقعي على المخاوف الأخلاقية في مجال الذكاء الاصطناعي: الخوارزميات التمييزية

انتهاك الخصوصية

شرح انتهاك الخصوصية

الأسلحية ذاتية التحكم

شرح الأسلحية ذاتية التحكم

التسريح من الوظائف

شرح التسريح من الوظائف

و التحيز والإنصاف في الذكاء الاصطناعي Bias and Fairness in Al يُمكن أن يظهر التحيز (Bias ) في أنظمة الذكاء الاصطناعي عندما تكون البيانات المستخدمة لتدريب الخوارزمية ناقصة التمثيل أو تحتوي على تحيزات أساسية، تحيز الذكاء الاصطناعي Alias : ويُمكن أن يظهر في أية بيانات تُمثْلها مُخرجات النظام ، فعلى سبيل المثال لا الحصر: في مجال الذكاء الاصطناعي، يدل التحيز المنتجات والآراء والمجتمعات والاتجاهات كلها يمكن أن يظهر فيها التحيُّز. على ميل خوارزميات التعلم الآلي إلى إنتاج نتائج تحابي بدائل، أو فئات معينة، أو يُعدُّ نظام التوظيف الآلي الذي يستخدم الذكاء الاصطناعي لفحص المرشحين تظلمها بأسلوب منهجي؛ مما يؤدي إلى للوظائف من أبرز الأمثلة على الخوارزميّة المتحيّزة. افترض أن الخوارزمية مدربة القيام بتنبؤات خاطئة وإلى احتمالية على بيانات متحيزة، مثل أنماط التوظيف التاريخية التي تُفضّل مجموعات ديموغرافية معينة، ففي هذه الحالة قد يعمل الذكاء الاصطناعي على استمرار تلك محددة. التحيزات ويستبعد المرشّحين المؤهلين بشكل غير عادل من بين المجموعات متجاهلا التمييز ضد مُنتَجات معينة أو فئات بشرية الفئات غير الممثلة جيدًا في مجموعة البيانات. على سبيل المثال، افترض أن الخوارزمية تُفضل المرشحين الذين التحقوا بجامعات النخبة، أو عملوا في شركات مرموقة ، ففي هذه الحالة قد يلحق ذلك الضرر بالمرشحين الذين لم يحظوا بتلك الفرص، أو الذين ينتمون إلى بيئات أقل حظًّا ، ويُمكن أن يُؤدي ذلك إلى نقص التنوع في مكان العمل وإلى استمرارية عدم المساواة، ولذلك من المهم تطوير واستخدام خوارزميات توظيف للذكاء الاصطناعي تستند على معايير عادلة وشفافة، وغير مُتحيّزة. يشير الإنصاف (Fairness) في الذكاء الاصطناعي إلى كيفية تقديم أنظمة الذكاء الاصطناعي لنتائج غير مُتحيّزة وعلى معاملتها لجميع الأفراد والمجموعات مُعاملة مُنصفة، ولتحقيق الإنصاف في الذكاء الاصطناعي يتطلب ذلك تحديد التحيزات في البيانات والخوارزميات وعمليات اتخاذ القرار ومعالجتها. على سبيل المثال، تتمثل إحدى طرائق تحقيق الإنصاف في الذكاء الاصطناعي في استخدام عملية تُسمى إلغاء الانحياز (Debiasing ) ، حيث يتم تحديد البيانات المتحيّزة وإزالتها أو تعديلها بما يضمن وصول الخوارزمية إلى نتائج أكثر دقة دون تحيز. جدول 6.1: العوامل التي تُحدِّد تحيز أنظمة الذكاء الاصطناعي تتعلّم خوارزميات الذكاء الاصطناعي من البيانات التي تُدرَّب عليها ؛ فإذا كانت البيانات متحيّزة أو ناقصة التمثيل، فقد تصل الخوارزميّة إلى نتائج مُتحيّزة. على سبيل المثال، بيانات التدريب إذا تم تدريب خوارزمية التعرُّف على الصور على مجموعة بيانات تحتوي في الغالب على المتحيّزة أفراد ذوي بشرة فاتحة، فربما تواجه صعوبة في التعرُّف بدقة على الأفراد ذوي البشرة الداكنة. إذا لم يكن فريق التطوير متنوعًا ولا يُمثَّل نطاقا واسعا من الفئات الثقافية والتقنية، فقد الافتقار إلى التنوع لا يتعرَّف على التحيُّزات الموجودة في البيانات أو الخوارزمية، ويؤدي الفريق الذي يتكون في فرق التطوير من أفراد من منطقة جغرافية أو ثقافة معيّنة إلى عدم مراعاة المناطق أو الثقافات الأخرى التي قد تكون ممثلة في البيانات المستخدمة لتدريب نموذج الذكاء الاصطناعي. Я يُمكن أن يُؤدي الافتقار إلى الرقابة والمسؤولية في تطوير أنظمة الذكاء الاصطناعي ونشرها و الافتقار إلى الرقابة إلى ظهور التحيّز ، فإذا لم تُطبق الشركات والحكومات آليات رقابة ومساءلة مناسبة، فإنّ ذلك قد يؤدي إلى عدم تنفيذ اختبار التحيُّز في أنظمة الذكاء الاصطناعي وربما لا يكون والمسؤولية هناك مجال لإنصاف الأفراد أو المجتمعات المتضررة من النتائج المتحيّزة. الافتقار إلى الخبرة قد لا تُحدِّد فِرق التطوير التي تفتقر إلى الخبرة مؤشرات التحيز في بيانات التدريب أو والمعرفة لدى فريق ،تُعالجها، كما أن الافتقار إلى المعرفة في تصميم نماذج الذكاء الاصطناعي واختبارها لتحقيق العدالة ربما يؤدى إلى استمرارية التحيزات القائمة. التطوير وزارة التعليم Ministry of Education 2024-1446 302

الدرس الأول: مقدمة في أخلاقيات الذكاء الاصطناعي

اتحيز والانصراف في الذكاء الاصطناعي

شرح اتحيز والانصراف في الذكاء الاصطناعي

العوامل التي تحدد تحيز أنظمة الذكاء الاصطناعي

شرح العوامل التي تحدد تحيز أنظمة الذكاء الاصطناعي

الحد من التحيز وتعزيز الإنصاف في أنظمة الذكاء الاصطناعي Reducing Bias and Promoting Fairness in Al Systems البيانات المتنوعة والممثلة يقصد بذلك استخدام البيانات التي تعكس تنوع المجموعة التي يتم تمثيلها ، كما أنه من المهم مراجعة وتحديث البيانات المستخدمة لتدريب أنظمة الذكاء زيادة العينات (Oversampling) : الاصطناعي بانتظام؛ للتأكد من أنها ما زالت ملائمة وغير مُتحيّزة. تقنيات إلغاء الانحياز تُشير زيادة العينة في تعلم الآلة إلى زيادة عدد عينات فئة ما داخل مجموعة بيانات تتضمن أساليب إلغاء الانحياز تحديد وإزالة البيانات المتحيّزة من أنظمة الذكاء لتحسين دقة النموذج، ويكون ذلك بواسطة المضاعفة العشوائية للعينات الاصطناعي؛ لتحسين معايير الدقة والإنصاف، فتشمل هذه التقنيات مثلا : زيادة العينات (Oversampling) أو تقليل العينات (Undersampling) أو زيادة الموجودة في الفئة أو توليد عينات جديدة من الفئة نفسها. البيانات (Data Augmentation لضمان تعرض نظام الذكاء الاصطناعي لنقاط بيانات مختلفة. القابلية للتفسير والشفافية إن جعل أنظمة الذكاء الاصطناعي أكثر شفافية وأكثر قابلية للتفسير يمكنه أن يساعد في تقليص مستوى التحيُّز من خلال السماح للمستخدمين بفهم كيفية اتخاذ النظام للقرارات، ويتضمن ذلك توضيح عملية اتخاذ القرار والسماح للمُستخدمين باستكشاف مخرجات النظام واختبارها. التصميم المعتمد على إشراك الإنسان يمكن أن يساهم إشراك العنصر البشري في حلقة تصميم أنظمة الذكاء الاصطناعي في التقليل من التحيُّز، وذلك بالسماح للبشر بالتدخل وتصحيح تقليل العينات (Undersampling) تقليل العينة هو عملية تقليل حجم مجموعة البيانات بحذف مجموعة فرعية من بيانات الفئة الأكبر للتركيز على العينات الأكثر أهمية. ويكون ذلك مفيدا بشكل خاص إذا مخرجات النظام عند الضرورة، ويشمل ذلك تصميم أنظمة ذكاء اصطناعي كانت مجموعة البيانات تفتقر إلى التوازن بها مرحلة للتغذية الراجعة تُمكِّن البشر من مراجعة قرارات النظام والموافقة عليها. المبادئ الأخلاقية تعني دمج المبادئ الأخلاقية مثل: الإنصاف والشفافية والمساءلة، في تصميم وتنفيذ أنظمة الذكاء الاصطناعي، من أجل ضمان تطوير تلك الأنظمة واستخدامها بشكل أخلاقي ومسؤول، وذلك بوضع إرشادات أخلاقية واضحة لاستخدام أنظمة الذكاء الاصطناعي ومراجعة هذه الإرشادات بانتظام وتحديثها عند الضرورة. المراقبة والتقييم بانتظام تعد بين الفئات أو بين مجموعاتها المختلفة. زيادة البيانات : ( Data Augmentation) المراقبة والتقييم بشكل دوري لأنظمة الذكاء الاصطناعي أمرًا ضروريًا لتحديد زيادة البيانات هي عملية توليد بيانات التحيز وتصحيحه، ويتضمن ذلك اختبار مُخرجات النظام وإجراء عمليات تدقيق منتظمة؛ للتأكد من أن النظام يعمل بشكل عادل ودقيق. تقييم تغذية المستخدم الراجعة تدريب جديدة من البيانات الموجودة لتعزيز أداء نماذج تعلم الآلة، ومن الأمثلة على ذلك: قلب الصور يُمكن أن تساعد التغذية الراجعة التي يقدمها المستخدم في تحديد التحيز في (Image Flipping) وتدويرها النظام؛ لأن المستخدمين غالبًا ما يكونون أكثر وعيا بتجاربهم، ويمكنهم تقديم وقصها وتغيير ألوانها وتحويلها تحويلا رؤى عن التحيز المحتمل أفضل مما يُمكن أن تقدمه خوارزميات الذكاء الاصطناعي. تألفيًّا (Affine Transformation) على سبيل المثال، يُمكن أن يقدِّم المستخدِمون تغذية راجعة عن رؤيتهم لأداء نظام والتشويش عليها . الذكاء الاصطناعي أو تقديم اقتراحات مفيدة لتحسين النظام وجعله أقل تحيزا. 303 وزارة التعليم Ministry of Education 2024-1446

الدرس الأول: مقدمة في أخلاقيات الذكاء الاصطناعي

الحد من التحيز والإنصاف في أنظمة الذكاء الاصطناعي

شرح الحد من التحيز والإنصاف في أنظمة الذكاء الاصطناعي

لل تُعدُّ مشكلة المسؤولية الأخلاقية عند استخدام أنظمة الذكاء الاصطناعي المتقدمة قضية معقدة ومتعددة الجوانب، وقد حظيت باهتمام كبير في السنوات الأخيرة. تتمثل إحدى التحديات الرئيسة لأنظمة الذكاء الاصطناعي المتقدمة في قدرتها على اتخاذ القرارات والقيام بإجراءات يُمكن أن يكون لها عواقب إيجابية أو سلبية كبيرة على الأفراد والمجتمع، ورغم ذلك، لا يكون الطرف الذي يجب تحميله المسؤولية الأخلاقية عن هذه النتائج مشكلة المسؤولية الأخلاقية في الذكاء الاصطناعي The Problem of Moral Responsibility in Al 1 0 1 0 lo raibo 101hoto 10 0010111 1101 0 100 0 1 0 1 1 1 •Х ЯОЯЯ ІМ" 1 0 1 1 0 10 01001061 1 0 1 1 0 101 0 1 0 0 100 92167 100 100 • У ЛОЯЯ 1 11926 = × 9 = L 0 11 001 1 = 59 192167 15909AIM " 1926] มา 01 01001 X 9 = 10 1 5.9 11 1 0 1 0 1 0 0 1 100 0 1 0 1 1 I 1 1- 0 1 0 1 3 pitībom) w21+ 1951 01 Joel 01 10 10 1 J06x9 0 0 1 0 1 1 0 1 0 1 0 1 0 0 1 100- 4 0 2922A 0010 1 Q 0 1 0 1 1 1 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 0 1 1 2 0 0 1 0 1 1 1 10 10 01 0 10 otos [92 sd of :(10 "x_1011im_1 304 do محددًا دائما. هناك رأي يقول: إن مطوّري ومصممي أنظمة الذكاء الاصطناعي يجب أن يتحملوا المسؤولية عن أي نتائج سلبية تنتج عن استخدامها ، ويُؤكِّد هذا الرأي على أهمية ضمان تصميم أنظمة ذكاء اصطناعي تُراعي الاعتبارات الأخلاقية وتُحمّل المطورين المسؤولية عن أي ضرر قد تسببه اختراعاتهم. 111 ويرى آخرون أن المسؤولية عن نتائج الذكاء الاصطناعي هي مسؤولية مشتركة بين أصحاب المصلحة بما فيهم صُنّاع السياسات، والمنظمين ومستخدمي التقنية ويسلط هذا الرأي الضوء على أهمية ضمان استخدام أنظمة الذكاء الاصطناعي بطرائق تتماشى مع المبادئ الأخلاقية، وتقييم المخاطر المرتبطة باستخدامها وإدارتها بعناية. ود وهناك رأي ثالث يقول: إن أنظمة الذكاء الاصطناعي هي " ذات مسؤولة" لديها حسّ أخلاقي ومسؤولة عن أفعالها، وتقول هذه النظرية: إنّ أنظمة الذكاء الاصطناعي المتقدِّمة يُمكن أن تتمتع بالفاعلية والاستقلالية؛ مما يجعلها أكثر من مجرد أدوات، كما تتطلب منها أن تكون مسؤولة عن أفعالها، إلا أن لهذه النظرية عدة مشكلات. تستطيع أنظمة الذكاء الاصطناعي أن تُصدر أحكامًا وأن تتصرف من تلقاء نفسها، ولكنها ليست "ذاتًا مسؤولة" لديها حسّ أخلاقي وذلك للأسباب التالية: أولًا: أن أنظمة الذكاء الاصطناعي تفتقر إلى الوعي والخبرات الذاتية؛ مما يُعدُّ سمة أساسية من سمات "الذات المسؤولة" التي لديها حس أخلاقي، وفي العادة تتضمن الفاعلية الأخلاقية القدرة على التفكير في المثل العليا للفرد وأفعاله. وو ثانيًا : يقوم الأشخاص بتدريب أنظمة الذكاء الاصطناعي على اتباع قواعد وأهداف محدَّدة؛ مما يحد من حكمها الأخلاقي، ويُمكن لأنظمة الذكاء الاصطناعي تكرار اتخاذ القرارات الأخلاقية، مع افتقارها للإرادة الحرة والاستقلالية الشخصية. وأخيرًا ، فإن مُنشِئي أنظمة الذكاء الاصطناعي والقائمين على نشرها هم المسؤولون عن أفعالهم، ويُمكن لأنظمة الذكاء الاصطناعي أن تساعد في اتخاذ القرارات الأخلاقية على الرغم من أنها ليست "ذاتًا مسؤولة" لديها حس أخلاقي. وزارة التعليم Ministry of Education 2024-1446

الدرس الأول: مقدمة في أخلاقيات الذكاء الاصطناعي

مشكلة المسؤول الأخلاقية في الذكاء الاصطناعي

شرح مشكلة المسؤول الأخلاقية في الذكاء الاصطناعي

الشفافية وقابلية التفسير في الذكاء الاصطناعي ومشكلة الصندوق الأسود Transparency and Explainability in Al and the Black-Box Problem نظام الصندوق الأسود تكمن مشكلة الصندوق الأسود في الذكاء الاصطناعي في التحدي المتمثل في فهم كيفية و : ( Black-Box System ) عمل نظام قائم على الذكاء الاصطناعي ( Al-Based stem باتخاذ القرارات أو إنتاج المخرجات؛ مما قد يُصعب الوثوق بالنظام أو تفسيره أو تحسينه، وربما يؤثـر هو نظام لا يكشف عن طرائق عمله الافتقار إلى الانفتاح وإلى قابلية التفسير على ثقة الناس في النموذج. تتزايد هذه الداخلية للبشر؛ إذ تتم التغذية التحديات بوجه خاص في مجال التشخيص الطبي، والأحكام التي تصدرها المركبات بالمدخلات، ليتم إنتاج المخرجات ذاتية القيادة. تُعدُّ التحيزات في نماذج تعلم الآلة إحدى المخاوف الأخرى المتعلقة بنماذج دون معرفة طريقة عملها ، كما هو الصندوق الأسود ، كما أن التحيزات الموجودة في البيانات التي يتم تدريب هذه النماذج موضح في الشكل 6.1. المدخلات Black-Box عليها يُمكن أن تُؤدي إلى نتائج غير عادلة أو عنصرية. بالإضافة إلى ذلك، ربما يكون من الصعب تحديد المسؤولية عن القرارات التي يتخذها نموذج الصندوق الأسود؛ حيث يصعب تحميل أي شخص المسؤولية عن تلك القرارات لا سيما مع وجود الحاجة إلى الرقابة البشرية، كما هو الحال في أنظمة الأسلحة ذاتية التحكم. إن الافتقار إلى الشفافية في عملية اتخاذ القرار باستخدام الذكاء الاصطناعي يُصعّب تحديد مشكلات النموذج وحلّها ، كما أن عدم معرفة الطريقة التي يتخذ بها النموذج قراراته تجعل من الصعب إجراء التحسينات والتأكد من أنها تعمل بطريقة صحيحة، وهناك استراتيجيات عديدة لمعالجة مشكلة الصندوق الأسود في الذكاء الاصطناعي. تتمثل إحدى تلك الاستراتيجيات في استخدام تقنيات ذكاء اصطناعي قابلة للتفسير لجعل نماذج تعلم الآلة أكثر شفافية وأكثر قابلية للتفسير، وقد تشمل هذه التقنيات مُفسرات اللغات الطبيعية (Natural Language Explanation) أو تصوير البيانات للمساعدة في فهم عملية اتخاذ القرار، وهناك أسلوب آخر يتمثل في استخدام نماذج تعلُّم الآلة الأكثر قابلية للتفسير مثل: أشجار القرار ( Decision Trees) أو الانحدار الخطي (Linear Regression) ، وربما تكون هذه النماذج أقل تعقيدًا وأسهل في الفهم، ولكنها قد لا تكون قوية أو دقيقة مثل شكل 6.1 نظام الصندوق الأسود النماذج الأكثر تعقيدًا. تُعدُّ معالجة مشكلة الصندوق الأسود في الذكاء الاصطناعي أمرًا مهما لبناء الثقة في نماذج تعلُّم الآلة وضمان استخدامها بأسلوب أخلاقي وعادل. طرائق تعزيز شفافية نماذج الذكاء الاصطناعي وقابليتها للتفسير المخرجات Methods for Enhancing the Transparency and Explainability of Al Models النموذج المحايد المحلي القابل للتفسير والشرح لک النموذج المحايد المحلي القابل للتفسير والشرح Local Interpretable Model-Agnostic Explanations - IME) تم استخدامه مسبقًا في مهام معالجة اللغات الطبيعية (NLP) ، وتقوم هذه التقنية بتوليد تفسيرات محلية لتنبؤات مفردة يتم إجراؤها بواسطة نموذج ، وتُنشئ هذه التفسيرات نموذجًا أبسط وقابلا للتفسير يقارب نموذج الصندوق الأسود المعقَّد حول تنبؤ محدَّد، دد ، ثم يُستخدم هذا النموذج البسيط لشرح كيف توصل إلى قراره بشأن هذا التنبؤ المحدد. تتمثل ميزة هذه التقنية في أنها توفر تفسيرات يُمكن للإنسان قراءتها، وبالتالي يُمكن لأصحاب المصلحة غير المتخصصين فهمها بسهولة؛ حتى فيما يتعلق بالنماذج المعقدة مثل: الشبكات العصبية العميقة ( Deep Neural Networks). تفسيرات شابلي الإضافية تفسيرات شابلي الإضافية (Haley Additive explanations - SHAP هي طريقة أخرى لتفسير مُخرجات نماذج تعلُّم الآلة، وتعتمد على المفهوم الخاص بقيم شابلي من نظرية الألعاب (Game Theory) وتُخصص قيمة ( أو وزنًا ) لكل خاصية 305 وزارة التعليم Ministry of Education 2024-1446

الدرس الأول: مقدمة في أخلاقيات الذكاء الاصطناعي

الشفافية وقابلية التفسير في الذكاء الاصطناعي ومشكلة الصندوق الأسود

شرح الشفافية وقابلية التفسير في الذكاء الاصطناعي ومشكلة الصندوق الأسود

طرائق تعزيز شفافية نماذج الذكاء الاصطناعي وقابليتها للتفسير

شرح طرائق تعزيز شفافية نماذج الذكاء الاصطناعي وقابليتها للتفسير

خة، یکن نور د چور گھر کو آب گوار حية ثار خذ ويل ؤول مساهمة في التنبؤ. يُمكن استخدام الطريقة مع أي نموذج ، كما تقدم تفسيرات في شكل درجات تبين أهمية الخصائص، مما يُمكن أن يساعد في تحديد الخصائص الأكثر تأثيرًا في مُخرجات النموذج. وهناك تقنية أخرى لتحسين قابلية تفسير الذكاء الاصطناعي مثل : أشجار القرار وقواعد القرار، وهي نماذج قابلة للتفسير يُمكن تصويرها بسهولة، حيث تقوم أشجار القرار بتقسيم فضاء الخصائص (Feature Space) بناءً على الخاصية الأكثر دلالة، وتقدم قواعد واضحة لاتخاذ القرارات، وتُعدُّ أشجار القرار مفيدة بشكل خاص عندما تتخذ البيانات شكل الجداول ويكون هناك عدد محدود من الخصائص . ولكن هذه النماذج محدودة أيضًا؛ لأن قابلية تفسير شجرة القرار التي تم إنشاؤها تتناسب تناسبًا عكسيًا مع حجم الشجرة. على سبيل المثال، من الصعب فهم الأشجار التي تتكون من آلاف العقد ومئات المستويات. وأخيرًا ، هناك أسلوب آخر يستخدم تقنيات مثل: وكلاء الذكاء الاصطناعي (Artificial Intelligence Agents) أو تحليل الحساسية (Sensitivity Analysis) للمساعدة في فهم كيفية تأثير تغيير المدخلات أو الافتراضات على مخرجات النموذج، ويُمكن أن يكون هذا الأسلوب مفيدًا بشكل خاص في تحديد مصادر الغموض في النموذج وفي فهم حدوده الاستدلال القائم على القيم في أنظمة الذكاء الاصطناعي Value-Based Reasoning in Al Systems يتمثل الهدف من ذلك في إنشاء أنظمة ذكاء اصطناعي أكثر اتساقًا مع القيم والأخلاقيات البشرية؛ بحيث تتعامل هذه الأنظمة بطرائق مفيدة ومنصفة الاستدلال القائم على القيم : (Value-Based Reasoning) الاستدلال القائم على القيم في ومسؤولة . تتضمن الخطوة الأولى في الاستدلال القائم على القيم، فهم وتمثيل أنظمة الذكاء الاصطناعي يشير إلى القيم الأخلاقية داخل أنظمة الذكاء الاصطناعي، حيث يجب أن تكون هذه العملية التي يستخدمها وكلاء الذكاء الأنظمة قادرة على تفسير وتوطين القيم أو المبادئ التوجيهية الأخلاقية التي يُقدمها منشؤها البشريون أو أصحاب المصلحة، وقد تتضمن هذه العملية التعلم من الاصطناعي لاتخاذ قرارات أو استخلاص نتائج بناءً على مجموعة الأمثلة أو التغذية الراجعة البشرية أو القواعد الواضحة، وعندما محددة مسبقًا من القيم أو المبادئ تفهم أنظمة الذكاء الاصطناعي هذه القيم بوضوح، يُمكنها أن تقوم بمواءمة أو الاعتبارات الأخلاقية. أفعالها بطريقة أفضل مع المبادئ الأخلاقية المنشودة. 306 المخرجات الدخلات نموذج الذكاء الاصطناعي القيم المحددة مسبقا شكل :62 تمثيل للاستدلال القائم على القيم يركز الجانب الثاني من جوانب الاستدلال القائم على القيم على تقييم القرارات أو الأفعال بناءً على القيم التي وطنت (Internalized Values) ، ويجب أن تقوم أنظمة الذكاء الاصطناعي بتقييم النتائج المحتملة للقرارات أو الإجراءات المختلفة بالنظر في عواقب كل خيار ومخاطره وفوائده، كما يجب أن تأخذ عملية التقييم هذه في الاعتبار القيم الأساسية التي تم تصميم نظام الذكاء الاصطناعي لدعمها، مما يضمن أن يتخذ النظام خيارات مستنيرة ومتوافقة مع القيم. وأخيرا، يتطلب الاستدلال القائم على القيم من أنظمة الذكاء الاصطناعي اتخاذ قرارات تتماشى مع القيم الراسخة، فبعد تقييم الخيارات المختلفة ونتائجها المحتملة، يجب على نظام الذكاء الاصطناعي أن ينتقي القرار أو الإجراء الذي يُمثل المبادئ والأهداف الأخلاقية التي صُمِّم لاتباعها ، فمن خلال اتخاذ قرارات متوافقة مع القيم، يمكن لوكلاء الذكاء الاصطناعي (Agents التصرف بطرائق تتفق مع المبادئ التوجيهية الأخلاقية التي وضعها منشؤها؛ مما يعزّز السلوك المسؤول والمفيد . على سبيل المثال: تُستخدم أنظمة الذكاء الاصطناعي في الرعاية الصحية للمساعدة في اتخاذ و وزارة التعليم Ministry of Education 2024-1446

الدرس الأول: مقدمة في أخلاقيات الذكاء الاصطناعي

مساهمة في التنبؤ يمكن استخدام الطريقة مع أي نموذج كما تقدم تفسيرات في شكل درجات

شرح مساهمة في التنبؤ يمكن استخدام الطريقة مع أي نموذج كما تقدم تفسيرات في شكل درجات

الاستدلال القائم عل ى القيم في أنظمة الذكاء الاصطناعي

شرح الاستدلال القائم عل ى القيم في أنظمة الذكاء الاصطناعي

307 قرارات التشخيص والعلاج، حيث يجب أن تكون هذه الأنظمة قادرة على التفكير في الآثار الأخلاقية المترتبة على العلاجات المختلفة مثل: الآثار الجانبية المحتملة أو التأثير على جودة الحياة، ومن ثَمّ تتخذ قرارات تُعطي الأولوية لسلامة المريض، ومن الأمثلة الأخرى: أنظمة الذكاء الاصطناعي المستخدمة في التمويل للمساعدة في اتخاذ قرارات الاستثمار، حيث يجب أن تكون هذه الأنظمة قادرة على أن تُفكر في الآثار الأخلاقية المترتبة على الاستثمارات المختلفة، كالتأثير على البيئة أو على الرعاية الاجتماعية ، وبالتالي تتخذ القرارات التي تتماشى مع قيم المستثمر. يجب أن ندرك أن المسؤولية لا تقع بأكملها على عاتق نظام الذكاء الاصطناعي، بل إنها مسؤولية مشتركة بين الذكاء الاصطناعي والخبراء البشريين ، فنظام الذكاء الاصطناعي يساعد في اتخاذ القرار بأن يُلخّص الحالة ويقدم الخيارات أو العروض للمُستخدم الخبير الذي يتخذ القرار النهائي؛ مما يؤكد أن الخبير البشري هو المتحكم والمسؤول عن النتيجة النهائية، في ظل الاستفادة من الأفكار والتحليلات التي يوفرها نظام الذكاء الاصطناعي. الذكاء الاصطناعي وتأثيره على البيئة Al and Environmental Impact إن تأثير الذكاء الاصطناعي على البيئة وعلى علاقتنا بها معقد ومتعدد الأوجه. فوائده المحتملة ، و لك يمكن للذكاء الاصطناعي أن يساعد في فهم التحديات البيئية والتعامل معها بشكل أفضل مثل تغير المناخ والتلوث، وفقدان التنوع البيولوجي، ويُمكنه أن يساعد في تحليل كميات هائلة من البيانات والتنبؤ بتأثير الأنشطة البشرية المختلفة على البيئة ويُمكنه كذلك أن يساعد في تصميم أنظمة أكثر كفاءة واستدامة مثل: أنظمة شبكات الطاقة، والزراعة، والنقل، والمباني. أخطاره أو أضراره المحتملة هناك مخاوف من تأثير الذكاء الاصطناعي نفسه على البيئة؛ إذ يتطلب تطوير أنظمة الذكاء الاصطناعي واستخدامها قدرًا كبيرًا من الطاقة والموارد؛ مما قد يُسهم في انبعاث غازات تفاقم من مشكلة الاحتباس الحراري وغيرها من الآثار البيئية. على سبيل المثال، قد يتطلب تدريب نموذج واحد للذكاء الاصطناعي قدرًا من الطاقة يعادل ما تستهلكه العديد من السيارات طوال حياتها. بالإضافة إلى ذلك، يمكن أن يساهم إنتاج المكونات الإلكترونية المستخدمة في تصنيع أنظمة الذكاء الاصطناعي في تلوث البيئة مثل: استخدام المواد الكيميائية السامة وتوليد النفايات الإلكترونية. علاوة على ذلك، يُمكن أن يغير الذكاء الاصطناعي علاقتنا بالبيئة بطرائق ليست إيجابية دائمًا ، فقد يُؤدي استخدام الذكاء الاصطناعي في الزراعة إلى ممارسات زراعية مكثّفة ومركّزة على الصناعة؛ مما يؤثر سلبًا على صحة التربة والتنوع البيولوجي. بالمثل، ربما يؤدي استخدام الذكاء الاصطناعي في النقل إلى زيادة الاعتماد على السيارات وأساليب النقل الأخرى؛ مما يُسهم في تلوث الهواء وتدمير البيئات الطبيعية التي تسكنها الكائنات الحية. الخاتمة شكل 6.3 تحليل الذكاء الاصطناعي لكميات ضخمة من البيانات T شكل 6.4 تتطلب أنظمة الذكاء الاصطناعي كميات هائلة من الطاقة والموارد بوجه عام، يعتمد تأثير الذكاء الاصطناعي على البيئة وعلاقتنا بها على كيفية تطوير أنظمة الذكاء الاصطناعي واستخدامها، ومن المهم النظر في التأثيرات البيئية المحتملة للذكاء الاصطناعي وتطوير أنظمته واستخدامها بطرائق تُعطي الأولوية للاستدامة والكفاءة وسلامة كوكب الأرض. وزارة التعليم Ministry of Education 2024-1446

الدرس الأول: مقدمة في أخلاقيات الذكاء الاصطناعي

قرارات التشخيص والعلاج حيث يجب أن تكون هذه الأنظمة قادرة على التفكير في الآثار الأخلاقية المترتبة على العلاجات

شرح قرارات التشخيص والعلاج حيث يجب أن تكون هذه الأنظمة قادرة على التفكير في الآثار الأخلاقية المترتبة على العلاجات

الذكاء الاصطناعي وتأثيره على البيئة

شرح الذكاء الاصطناعي وتأثيره على البيئة

الأطر التنظيمية ومعايير الصناعة Regulatory Frameworks and Industry Standards تلعب الأُطر التنظيمية ومعايير الصناعة دورًا مهما في تعزيز تطبيقات الذكاء الاصطناعي الأخلاقية، فبإمكان التنظيمات المساعدة أن تضمن تَحمُّل المنظمات التي تقوم بتطوير واستخدام أنظمة الذكاء الاصطناعي المسؤولية عن أفعالها عن طريق تحديد توقعات وعواقب واضحة لعدم الامتثال ، وبإمكان التنظيمات والمعايير أن تُحفز المنظمات على إعطاء الأولوية للاعتبارات الأخلاقية عند تطوير واستخدام أنظمة الذكاء الاصطنا. الشفافية اعي. يُمكن أن تعزّز التنظيمات والمعايير الشفافية في أنظمة الذكاء الاصطناعي بمطالبة المؤسسات بالكشف عن كيفية عمل أنظمتها وعن البيانات التي تستخدمها ، ويُمكن أن يساعد ذلك في بناء الثقة مع أصحاب المصلحة وتقليل المخاوف من التحيزات المحتملة أو التمييز المحتمل في أنظمة الذكاء الاصطناعي. تقييم المخاطر يُمكن تقليل مخاطر العواقب غير المقصودة أو النتائج السلبية الناتجة عن استخدام الذكاء الاصطناعي بوضع التنظيمات والمعايير المناسبة، وذلك بمطالبة المنظمات بإجراء تقييمات للمخاطر، وهذا يعني تحديد المخاطر والأخطار المحتملة وتنفيذ ضمانات مناسبة، مما يُمكِّن التنظيمات والمعايير من المساعدة في تقليل الأضرار المحتملة على الأفراد والمجتمع. تطوير ونشر أطر عمل واضحة للذكاء الاصطناعي يُمكن أن تشجع التنظيمات والمعايير الابتكار بتوفير إطار عمل واضح لتطوير أنظمة الذكاء الاصطناعي واستخدامها؛ إذ أن استخدام التنظيمات والمعايير لتأسيس فرص متكافئة وتقديم التوجيه بخصوص الاعتبارات الأخلاقية يُمكن أن يساعد المنظمات على تطوير أنظمة الذكاء الاصطناعي ونشرها بطرائق تتفق مع القيم الأخلاقية والاجتماعية. تلعب الأطر التنظيمية ومعايير الصناعة دورًا مهما في تعزيز تطبيقات الذكاء الاصطناعي الأخلاقية، وذلك بتوفير إرشادات وحوافز واضحة للمؤسسات حتى تُعطي الأولوية للاعتبارات الأخلاقية والتنظيمات والمعايير؛ مما يضمن تطوير أنظمة الذكاء الاصطناعي واستخدامها بطرائق تتماشى مع القيم الاجتماعية والأخلاقية. التنمية المستدامة للذكاء الاصطناعي في المملكة العربية السعودية Sustainable Al Development in the Kingdom of Saudi Arabia من المتوقع أن تصبح تقنيات الذكاء الاصطناعي وأنظمته أحد العوامل الرئيسة التي تُؤدي إلى إحداث خلل في القطاعات المالية في العديد من البلدان، وقد تؤثر بشكل كبير على سوق العمل، ومن المتوقع في السنوات القادمة أن يصبح حوالي 70% من الأعمال الروتينية التي يقوم بها العمال مؤتمتة بالكامل. كما أنه من المتوقع أن تخلق صناعة الذكاء الاصطناعي سبعة وتسعين مليون وظيفة جديدة وتضيف ستة عشر تريليون دولار أمريكي إلى الناتج المحلي الإجمالي العالمي. لل SDAIA الهيئة السعودية للبيانات والذكاء الاصطناعي Saudi Data & Al Authority لقد طوّرت الهيئة السعودية للبيانات والذكاء الاصطناعي (Saudi Data and Artificial Intelligence Authority - SDAI ) أهدافًا استراتيجية للمملكة لاستخدام تقنيات الذكاء الاصطناعي المستدامة في تنمية المملكة، وستكون المملكة العربية السعودية مركزًا عالميًا للبيانات والذكاء الاصطناعي، كما أن المملكة استضافت أول قمة عالمية له، حيث يُمكن للقادة والمبتكرين مناقشة مستقبل الذكاء الاصطناعي وتشكيله لصالح المجتمع. أما الهدف الآخر فيتمثل في تحويل القوى العاملة في المملكة من خلال تطوير البيانات المحلية ودعم المواهب في الذكاء الاصطناعي. وبما أن الذكاء الاصطناعي يقوم بتحويل أسواق العمل عالميا، فإن معظم القطاعات تحتاج إلى تكييف البيانات والذكاء الاصطناعي ودمجها في التعليم والتدريب المهني والمعرفة العامة وبذلك يُمكن أن تكتسب المملكة العربية السعودية ميزة تنافسية من حيث التوظيف والإنتاجية والابتكار. وزارة التعليم Ministry of Education 2024-1446 308

الدرس الأول: مقدمة في أخلاقيات الذكاء الاصطناعي

الأطر التنظيمية ومعايير الصناعة: الشفافية

شرح الأطر التنظيمية ومعايير الصناعة: الشفافية

تقييم المخاطر

شرح تقييم المخاطر

التنمية المستدامة للذكاء الاصطناعي في المملكة العربية السعودية

شرح التنمية المستدامة للذكاء الاصطناعي في المملكة العربية السعودية

أما الهدف النهائي فيتمثل في جذب الشركات والمستثمرين عن طريق أُطر عمل وحوافز تنظيمية مرنة ومستقرة، حيث ستركز الأنظمة على تطوير سياسات ومعايير للذكاء الاصطناعي، بما فيها استخدامه بشكل أخلاقي. وسيعمل إطار العمل على تعزيز التطوير الأخلاقي لأبحاث وحلول الذكاء الاصطناعي ودعمه في ظل توفير إرشادات ومعايير لحماية البيانات والخصوصية؛ مما سيوفر الاستقرار والتوجيه لأصحاب المصلحة العاملين في المملكة. مثال NEOM تخطط المملكة العربية السعودية لاستخدام أنظمة وتقنيات الذكاء الاصطناعي كأساس لمشروعي المدينتين العملاقتين نيوم (NEOM) وذا لاين (THE LINE). مشروع نيوم هو مدينة مستقبلية سيتم تشغيلها بالطاقة النظيفة، وبها أنظمة نقل متطورة، وتقدم خدمات ذات تقنية عالية، وستكون منصة للتقنيات المتطورة، بما في ذلك الذكاء الاصطناعي، وستستخدم حلول المدن الذكية؛ لتحسين استهلاك الطاقة وإدارة حركة المرور والخدمات المتقدمة الأخرى. وسيتم استخدام أنظمة الذكاء الاصطناعي فيها؛ لتحسين جودة الحياة للسكان ولتعزيز الاستدامة. وبالمثل، ستكون مدينة ذا لاين مدينة خطية خالية من الكربون مبنية بتقنيات الذكاء الاصطناعي، وستستخدم أنظمة الذكاء الاصطناعي لأتمتة بنيتها التحتية وأنظمة النقل فيها؛ مما يجعل حياة المقيمين فيها تتسم بالسلاسة والكفاءة، وستكون الطاقة التي ستُشغل المدينة طاقة نظيفة، كما أن الأولوية ستكون للمعيشة المستدامة، وسيتم استخدام الأنظمة التي تعمل بالذكاء الاصطناعي؛ لمراقبة استخدام الطاقة وتحسينها وانسيابية حركة المرور والخدمات المتقدمة الأخرى. وبوجه عام، ستلعب أنظمة الذكاء الاصطناعي وتقنياته دورًا حاسمًا في تطوير مشروعي هاتين المدينتين العملاقتين، وتمكينهما من أن تصبحا مدينتين مستدامتين من مدن المستقبل تتسمان بالكفاءة والابتكار. الإرشادات العالمية لأخلاقيات الذكاء الاصطناعي International Al Ethics Guidelines كماهو موضح في الجدول التالي، طوّرت منظمة اليونسكو ( UNESCO) وثيقة إرشادية توضّح بالتفصيل القيم والمبادئ التي يجب الالتزام بها عند تطوير أنظمة وتقنيات الذكاء الاصطناعي الجديدة. جدول 6.2 قيم ومبادئ أخلاقيات الذكاء الاصطنا القيم • احترام كرامة الإنسان وحمايتها وتعزيزها . التناسب وعدم الإضرار. وحفظ حريته وحقوقه الأساسية. . ازدهار البيئة والنظام البيئي. . ضمان التنوع والشمولية. . العيش في انسجام وسلام. السلامة والأمن. . الإنصاف وعدم التمييز. . الاستدامة. الخصوصية. المبادئ • الرقابة البشرية والعزيمة. الشفافية وقابلية التفسير المسؤولية والمساءلة. . الوعي والتثقيف. الحوكمة والتعاون القائمان على تعدُّد أصحاب المصلحة. 309 وزارة التعليم Ministry of Education 2024-1446

الدرس الأول: مقدمة في أخلاقيات الذكاء الاصطناعي

أما الهدف النهائي فيتمثل في جذب الشركات والمستثمرين عن طريق أطر عمل تنظيمية مرنة ومستقرة

شرح أما الهدف النهائي فيتمثل في جذب الشركات والمستثمرين عن طريق أطر عمل تنظيمية مرنة ومستقرة

مثال: تخطط المملكة العربية السعودية لاستخدام أنظمة وتقنيات الذكاء الاصطناعي

شرح مثال: تخطط المملكة العربية السعودية لاستخدام أنظمة وتقنيات الذكاء الاصطناعي

الارشادات العالمية لاخلاقيات الذكاء الاصطناعي

شرح الارشادات العالمية لاخلاقيات الذكاء الاصطناعي

جدول 6.2: قيم ومبادئ أخلاقيات الذكاء الاصطناعي

شرح جدول 6.2: قيم ومبادئ أخلاقيات الذكاء الاصطناعي

وزارة التعليم Ministry of Education 2024-1446 صحيحة خاطئة تمرينات حَدِّد الجملة الصحيحة والجملة الخاطئة فيما يلي: .1 تهتم أخلاقيات الذكاء الاصطناعي بتطوير أنظمة الذكاء الاصطناعي فقط. 2. من المحتمل أن يُؤدي الذكاء الاصطناعي والأتمتة إلى تسريح البشر من الوظائف. 3 . يُمكن أن يُؤدي الافتقار إلى التنوع في فرق تطوير الذكاء الاصطناعي إلى عدم رؤية التحيزات أو عدم معالجتها. .4 يُمكن أن يساعد دمج المبادئ الأخلاقية في أنظمة الذكاء الاصطناعي في ضمان تطويرها واستخدامها بطريقة مسؤولة. 5. يتطلب التصميم المعتمد على إشراك الإنسان أن تعمل أنظمة الذكاء الاصطناعي دون أي تدخل بشري. 6. تدل مشكلة الصندوق الأسود في الذكاء الاصطناعي على صعوبة فهم كيفية وصول خوارزميات الذكاء الاصطناعي إلى قراراتها أو تنبؤاتها. .7 يُمكن تصميم نماذج الذكاء الاصطناعي لتكييف قراراتها أو نتائجها وفقًا للقيم الأخلاقية الراسخة. 8. استخدام الذكاء الاصطناعي على نطاق واسع له آثار إيجابية فقط على البيئة. صف كيف يؤدي الذكاء الاصطناعي والأتمتة إلى تسريح البشر من وظائفهم. 1 2 310

الدرس الأول: مقدمة في أخلاقيات الذكاء الاصطناعي

حدد الجملة الصحيحة والجملة الخاطئة فيما يلي: تهتم أخلاقيات الذكاء الاصطناعي بتطوير أنظمة الذكاء الاصطناعي فقط

شرح حدد الجملة الصحيحة والجملة الخاطئة فيما يلي: تهتم أخلاقيات الذكاء الاصطناعي بتطوير أنظمة الذكاء الاصطناعي فقط حل حدد الجملة الصحيحة والجملة الخاطئة فيما يلي: تهتم أخلاقيات الذكاء الاصطناعي بتطوير أنظمة الذكاء الاصطناعي فقط

صف كيف يؤدي الذكاء الاصطناعي والأتمتة إلى تسريح البشر من وظائفهم

شرح صف كيف يؤدي الذكاء الاصطناعي والأتمتة إلى تسريح البشر من وظائفهم حل صف كيف يؤدي الذكاء الاصطناعي والأتمتة إلى تسريح البشر من وظائفهم

311 وزارة التعليم Ministry of Education 2024-1446 اشرح كيف يمكن أن تساهم بيانات التدريب المتحيّزة في تحقيق نتائج ذكاء اصطناعي متحيزة. 3 4) عرف مشكلة الصندوق الأسود في أنظمة الذكاء الاصطناعي. قارن بين الآثار الإيجابية والسلبية لأنظمة الذكاء الاصطناعي على البيئة. 5

الدرس الأول: مقدمة في أخلاقيات الذكاء الاصطناعي

اشرح كيف يمكن أن تساهم بيانات التدريب المتحيزة في تحقيق ذكاء اصطناعي متميز

شرح اشرح كيف يمكن أن تساهم بيانات التدريب المتحيزة في تحقيق ذكاء اصطناعي متميز حل اشرح كيف يمكن أن تساهم بيانات التدريب المتحيزة في تحقيق ذكاء اصطناعي متميز

عرف مشكلة الصندوق الأسود في أنظمة الذكاء الاصطناعي

شرح عرف مشكلة الصندوق الأسود في أنظمة الذكاء الاصطناعي حل عرف مشكلة الصندوق الأسود في أنظمة الذكاء الاصطناعي

قارن بين الآثار الإيجابية والسلبية لأنظمة الذكاء الاصطناعي على البيئة

شرح قارن بين الآثار الإيجابية والسلبية لأنظمة الذكاء الاصطناعي على البيئة حل قارن بين الآثار الإيجابية والسلبية لأنظمة الذكاء الاصطناعي على البيئة
التعليقات
لم يتم إضافة أي تعليقات حتى الآن.

الرجاء تسجيل الدخول لكتابة تعليق