أخبار

يمكن للذكاء الاصطناعي أن يضر بالنظام المالي العالمي وسلسلة التوريد وتفيد إرشادات حكومة الولايات المتحدة

للأفضل أو للأسوأ، فإن أدوات الذكاء الاصطناعي (AI) تتغلغل في جميع جوانب المجتمع، وتريد حكومة الولايات المتحدة ضمان عدم كسرها.

يتم استخدام روبوتات الدردشة المدعومة بالذكاء الاصطناعي مثل ChatGPT في مهام المدرسة، وحتى اجتياز الاختبارات المطلوبة لكونك طبيبًا أو للحصول على درجة علمية. تعمل الأدوات الفنية الآلية مثل DALL-E و Stable Difusion على تغيير عالم الفن، إلى الغضب الجماعي للفنانين البشريين. طور العلماء طرقًا للذكاء الاصطناعي يمكنها إنتاج إنزيمات جديدة. تتجه شركات الإعلام إلى الذكاء الاصطناعي لإنتاج مقالات إخبارية واختبارات قصيرة بثمن بخس. 

بسبب هذه التطورات المثيرة للإعجاب، والتي يهدف الكثير منها إلى إقصاء الأشخاص من العمل، يشعر الناس بالقلق من صعود الذكاء الاصطناعي. من المعروف أن برامج التعلم الآلي قد تسببت في تحيزات عنصرية وجنسية، والمؤسسات التي تستخدمها ليست أفضل من ذلك – فقد تم القبض على العديد من الرجال السود الأبرياء بسبب التعرف عليهم عن طريق الخطأ عن طريق التعرف على الوجه. هناك مخاوف بشأن إعادة الخط الرقمي وكيف يمكن للخوارزميات أن تقرر مصير الأشخاص المهمشين في نظام العدالة الجنائية. ثم هناك المخاطر الوجودية الأكبر: إذا تم تكليف الذكاء الاصطناعي في أي وقت بمسؤولية قطاع مهم من المجتمع، فهل يمكننا فعل أي شيء لإيقافه إذا كان سيئًا؟

الآن، قرر المعهد الوطني للمعايير والتكنولوجيا (NIST) تولي زمام الأمور. في 26 يناير، أصدرت الوكالة الحكومية مجموعة من الإرشادات التي، وفقًا لبيان صحفي، مخصصة “للاستخدام الطوعي من قبل المنظمات التي تصمم أنظمة الذكاء الاصطناعي أو تطورها أو تنشرها أو تستخدمها للمساعدة في إدارة المخاطر العديدة لتقنيات الذكاء الاصطناعي.” يشير البيان الصحفي أيضًا إلى أن هذا الإطار يتبع توجيهًا من الكونجرس، ويعمل منذ 18 شهرًا، وكان تعاونًا مع كل من القطاعين العام والخاص من أكثر من 240 منظمة مختلفة.

تقر الوثيقة التي يزيد عددها عن 40 صفحة بإمكانيات الذكاء الاصطناعي، مشيرة إلى أنه يمكن أن يغير حياة الناس، ويدفع النمو الاقتصادي الشامل، ويدعم التطورات العلمية التي تعمل على تحسين ظروف العالم. ومع ذلك، فإنه يركز بعد ذلك على مناقشة كيف يمكن أن تشكل الأداة أيضًا خطرًا على المجتمع، وكيف أن المخاطر التي تشكلها أنظمة الذكاء الاصطناعي فريدة من نوعها. على سبيل المثال، أنظمة الذكاء الاصطناعي معقدة، وغالبًا ما يتم تدريبها على البيانات التي يمكن أن تتغير بمرور الوقت، وهي بطبيعتها اجتماعية وتقنية. توضح الوثيقة أيضًا أن هناك أنواعًا مختلفة من المخاطر: الضرر الذي يلحق بالناس، وإلحاق الضرر بالمنظمة، والضرر الذي يلحق بالنظام الإيكولوجي. على وجه التحديد، تشير الوثيقة إلى “الضرر الذي يلحق بالنظام المالي العالمي أو سلسلة التوريد أو الأنظمة المترابطة”.

كما نعلم جميعًا الآن جيدًا بفضل الصدمات العديدة للنظام التي تسبب بها جائحة COVID-19، فهذه هي أنواع الأضرار التي يمكن أن تجعل جوانب مهمة من المجتمع تتوقف.

تقول الوثيقة: “بدون الضوابط المناسبة، يمكن لأنظمة الذكاء الاصطناعي تضخيم أو إدامة أو تفاقم النتائج غير العادلة أو غير المرغوب فيها للأفراد والمجتمعات”. “يمكن لأنظمة الذكاء الاصطناعي التخفيف من النتائج غير العادلة وإدارتها. تعد إدارة مخاطر الذكاء الاصطناعي عنصرًا رئيسيًا في التطوير والاستخدام المسؤول لأنظمة الذكاء الاصطناعي. يمكن أن تساعد ممارسات الذكاء الاصطناعي المسؤولة في مواءمة القرارات المتعلقة بتصميم نظام الذكاء الاصطناعي وتطويره واستخداماته مع الهدف والقيم المقصودة “. تشير الوثيقة أيضًا إلى مركزية الإنسان والمسؤولية الاجتماعية والاستدامة كمفاهيم أساسية في الذكاء الاصطناعي المسؤول.

يناقش الجزء المتبقي من الجزء الأول من الوثيقة كيف يمكن للمؤسسات تأطير المخاطر المتعلقة بالذكاء الاصطناعي، فضلاً عن تحليل مخاطر الذكاء الاصطناعي والجدارة بالثقة. تشير الوثيقة إلى أن أنظمة الذكاء الاصطناعي يجب أن تكون: صالحة وموثوقة وآمنة وآمنة ومرنة وخاضعة للمساءلة وشفافة وقابلة للتفسير وقابلة للتفسير ومحسّنة للخصوصية وعادلة “مع تخفيف التحيز الضار”. 

وفقًا للمؤلفين، فإن التحيز أوسع من التوازن الديموغرافي وتمثيل البيانات، ويمكن أن يحدث في غياب التحيز أو التحيز أو النية التمييزية. توصي NIST بالمراقبة وقنوات اللجوء والسياسات والإجراءات المكتوبة والوثائق الأخرى لتقليل التحيز. 

يركز الجزء الثاني على “جوهر الإطار”، حيث يقترحون أربع وظائف محددة (الحوكمة، والخريطة، والقياس، والإدارة) لمساعدة المؤسسات على معالجة مخاطر الذكاء الاصطناعي في اللعب. 

يرى واضعو الوثيقة أنها طريقة جديدة لدمج الممارسات المسؤولة والتوجيهات القابلة للتنفيذ من القطاعات الأخرى إلى الذكاء الاصطناعي. 

تقول الوثيقة: “يمكن لإدارة مخاطر الذكاء الاصطناعي أن تقود الاستخدامات والممارسات المسؤولة من خلال حث المؤسسات وفرقها الداخلية التي تصمم الذكاء الاصطناعي وتطوره وتنشره على التفكير بشكل أكثر نقدًا في السياق والتأثيرات السلبية والإيجابية المحتملة أو غير المتوقعة”. “سيساعد فهم وإدارة مخاطر أنظمة الذكاء الاصطناعي على تعزيز الجدارة بالثقة، وبالتالي تنمية ثقة الجمهور.”

المصدر: vice

شاهد أيضا:

سعر الذهب اليوم في السعودية

تمويل شخصي في الإمارات

أفضل شركات التوصيل السريع في فنلندا

شركات التوصيل السريع في فرنسا

تمويل نقدي فوري للقطاع الخاص

أفضل شركات تمويل شخصي بدون كفيل في السعودية

ترجمة يوناني عربي

السفارة التركية في السويد

اسعار الذهب اليوم النمسا

سعر الذهب اليوم في الكويت

زر الذهاب إلى الأعلى