أخبار

الذكاء الاصطناعي لديه مشكلة تمييز. في البنوك، يمكن أن تكون العواقب وخيمة

  • عندما يتعلق الأمر بالخدمات المصرفية والمالية، فإن مشكلة الذكاء الاصطناعي التي تضخم التحيزات البشرية الحالية يمكن أن تكون خطيرة.
  • تلاحظ Deloitte أن أنظمة الذكاء الاصطناعي هي في النهاية جيدة فقط مثل البيانات التي يتم تقديمها: مجموعات البيانات غير الكاملة أو غير التمثيلية يمكن أن تحد من موضوعية الذكاء الاصطناعي، في حين أن التحيزات في فرق التطوير التي تدرب مثل هذه الأنظمة يمكن أن تديم دورة التحيز هذه.
  • يعتبر الإقراض مثالًا رئيسيًا على المكان الذي يمكن فيه لخطر انحياز نظام الذكاء الاصطناعي ضد المجتمعات المهمشة أن يقود رأسه، وفقًا لمدير تويتر السابق رومان شودري.

أمستردام ـ يعاني الذكاء الاصطناعي من مشكلة تحيز عنصري.

من أنظمة تحديد الهوية بالمقاييس الحيوية التي تخطئ بشكل غير متناسب في التعرف على وجوه السود والأقليات، إلى تطبيقات برامج التعرف على الصوت التي تفشل في التمييز بين الأصوات ذات اللهجات الإقليمية المتميزة، فإن الذكاء الاصطناعي لديه الكثير للعمل عليه عندما يتعلق الأمر بالتمييز.

ويمكن أن تكون مشكلة تضخيم التحيزات الحالية أكثر حدة عندما يتعلق الأمر بالخدمات المصرفية والمالية.

تلاحظ Deloitte أن أنظمة الذكاء الاصطناعي هي في النهاية جيدة فقط مثل البيانات التي يتم تقديمها: مجموعات البيانات غير الكاملة أو غير التمثيلية يمكن أن تحد من موضوعية الذكاء الاصطناعي، في حين أن التحيزات في فرق التطوير التي تدرب مثل هذه الأنظمة يمكن أن تديم دورة التحيز هذه.

يمكن أن يكون الذكاء الاصطناعي غبيًا

قال نبيل منجي، رئيس التشفير وWeb3 في Worldpay by FIS، إن الشيء الأساسي الذي يجب فهمه حول منتجات الذكاء الاصطناعي هو أن قوة التكنولوجيا تعتمد كثيرًا على مصدر المواد المستخدمة في تدريبها.

قال مانجي لشبكة CNBC في مقابلة:” الشيء الذي يدور حول مدى جودة منتج الذكاء الاصطناعي، هناك نوعان من المتغيرين”. أحدهما هو البيانات التي يمكنه الوصول إليها، والثاني هو مدى جودة نموذج اللغة الكبير. هذا هو السبب في جانب البيانات، ترى شركات مثل Reddit وغيرها، لديهم علنًا وقالوا إننا لن نسمح للشركات بكشط بياناتنا، سيتعين عليك أن تدفع لنا مقابل ذلك”.

بالنسبة للخدمات المالية، قال مانجي إن الكثير من أنظمة البيانات الخلفية مجزأة بلغات وأشكال مختلفة.

وأضاف” لا شيء منها موحد أو منسق”. ″سيؤدي ذلك إلى جعل المنتجات التي يحركها الذكاء الاصطناعي أقل فاعلية بكثير في الخدمات المالية مما قد تكون عليه في القطاعات العمودية الأخرى أو الشركات الأخرى حيث يكون لديها التوحيد وأنظمة أكثر حداثة أو الوصول إلى البيانات.”

اقترح مانجي أن blockchain، أو تقنية دفتر الأستاذ الموزع، يمكن أن تكون بمثابة وسيلة للحصول على رؤية أوضح للبيانات المتباينة المخبأة بعيدًا في الأنظمة المزدحمة للبنوك التقليدية.

ومع ذلك، أضاف أن البنوك – كونها مؤسسات منظمة بشدة وبطيئة الحركة – من غير المرجح أن تتحرك بنفس السرعة التي تتحرك بها نظيراتها التقنية الأكثر ذكاءً في تبني أدوات الذكاء الاصطناعي الجديدة.

″لديك Microsoftوجوجل _، الذين أحبوا على مدى العقد أو العقدين الماضيين، كان يُنظر إليهم على أنهم يقودون الابتكار. لا يمكنهم مواكبة هذه السرعة. ثم تفكر في الخدمات المالية. قال مانجي:” البنوك ليست معروفة بالسرعة”.

مشكلة الذكاء الاصطناعي في البنوك

قال رومان شودري، الرئيس السابق لأخلاقيات التعلم الآلي والشفافية والمساءلة في تويتر، إن الإقراض هو مثال رئيسي لكيفية تحيز نظام الذكاء الاصطناعي ضد المجتمعات المهمشة.

قال شودري خلال جلسة في Money20 / 20 في أمستردام:” إن التمييز الخوارزمي ملموس للغاية في الإقراض”. ″شيكاغو لديها تاريخ في حرمان هذه [القروض] حرفيا من تلك [القروض] لأحياء من السود.”

في الثلاثينيات من القرن الماضي، اشتهرت شيكاغو بالممارسة التمييزية المتمثلة في” الخطوط الحمراء”، حيث يتم تحديد الجدارة الائتمانية للممتلكات بشكل كبير من خلال التركيبة السكانية العرقية لحي معين.

وأضافت:” ستكون هناك خريطة عملاقة على جدار جميع المقاطعات في شيكاغو، وسوف يرسمون خطوطًا حمراء في جميع المناطق التي كانت في الأساس من الأمريكيين من أصل أفريقي، ولن يمنحهم قروضًا”.

″تقدم سريعًا بعد بضعة عقود، وأنت تقوم بتطوير خوارزميات لتحديد مدى خطورة مختلف المناطق والأفراد. وعلى الرغم من أنك قد لا تقوم بتضمين نقطة البيانات الخاصة بسباق شخص ما، إلا أنه يتم انتقاؤها ضمنيًا”.

في الواقع، أخبرت Angle Bush، مؤسسة Black Women in Artificial Intelligence، وهي منظمة تهدف إلى تمكين النساء السود في قطاع الذكاء الاصطناعي، لشبكة CNBC أنه عندما يتم استخدام أنظمة الذكاء الاصطناعي على وجه التحديد لقرارات الموافقة على القروض، وجدت أن هناك خطرًا من تكرار القائمة الموجودة. التحيزات الموجودة في البيانات التاريخية المستخدمة لتدريب الخوارزميات.

وأضاف بوش:” يمكن أن يؤدي هذا إلى رفض منح القروض تلقائيًا للأفراد من المجتمعات المهمشة، مما يعزز الفوارق العرقية أو بين الجنسين”.

وقالت:” من الأهمية بمكان أن تقر البنوك بأن تطبيق الذكاء الاصطناعي كحل قد يؤدي دون قصد إلى استمرار التمييز”.

قال Frost Li، وهو مطور يعمل في مجال الذكاء الاصطناعي والتعلم الآلي لأكثر من عقد، لشبكة CNBC أن بُعد” التخصيص” لتكامل الذكاء الاصطناعي يمكن أن يكون مشكلة أيضًا.

قال لي، الذي أسس ويدير Loup، وهي شركة تساعد تجار التجزئة عبر الإنترنت على دمج الذكاء الاصطناعي في منصاتهم:” المثير للاهتمام في الذكاء الاصطناعي هو كيفية اختيار” الميزات الأساسية” للتدريب. ″في بعض الأحيان، نحدد ميزات لا علاقة لها بالنتائج التي نريد توقعها”.

يقول لي إنه عندما يتم تطبيق الذكاء الاصطناعي على الخدمات المصرفية، يكون من الصعب تحديد” الجاني” في التحيزات عندما يكون كل شيء معقدًا في الحساب.

″خير مثال على ذلك هو عدد الشركات الناشئة في مجال التكنولوجيا المالية المخصصة للأجانب على وجه الخصوص، لأن خريج جامعة طوكيو لن يتمكن من الحصول على أي بطاقات ائتمان، حتى لو كان يعمل في Google؛ ومع ذلك، يمكن لأي شخص بسهولة الحصول على واحدة من اتحاد ائتمان كليات المجتمع لأن المصرفيين يعرفون المدارس المحلية بشكل أفضل.

لا يتم استخدام الذكاء الاصطناعي التوليدي عادةً لإنشاء درجات ائتمانية أو في تصنيف مخاطر المستهلكين.

قال نيكلاس جوسك، رئيس العمليات في Taktile، وهي شركة ناشئة تساعد شركات التكنولوجيا المالية على أتمتة عملية صنع القرار:” هذا ليس ما تم تصميم الأداة من أجله”.

بدلاً من ذلك، قال جوسكي إن أقوى التطبيقات موجودة في المعالجة المسبقة للبيانات غير المهيكلة مثل الملفات النصية – مثل تصنيف المعاملات.

قال جوسكي:” يمكن بعد ذلك إدخال هذه الإشارات في نموذج اكتتاب أكثر تقليدية”. ″لذلك، سيحسن الذكاء الاصطناعي التوليدي جودة البيانات الأساسية لمثل هذه القرارات بدلاً من استبدال عمليات التسجيل الشائعة.”

لكن من الصعب أيضًا إثبات ذلك. تفاحةوجولدمان ساكس، على سبيل المثال، اتهموا بمنح النساء حدودًا أقل لبطاقة Apple Card. لكن هذه المزاعم رفضت من قبل وزارة الخدمات المالية لولاية نيويورك بعد أن لم تجد الهيئة التنظيمية أي دليل على التمييز على أساس الجنس. 

المشكلة، وفقًا لكيم سماوتر، مدير المجموعة الأوروبية لمناهضة العنصرية، هي أنه قد يكون من الصعب إثبات ما إذا كان التمييز القائم على الذكاء الاصطناعي قد حدث بالفعل.

قال:” إن إحدى الصعوبات في النشر الجماعي للذكاء الاصطناعي هي الغموض في كيفية اتخاذ هذه القرارات وما هي آليات الانتصاف الموجودة، كان الفرد الذي يعاني من العنصرية حتى يلاحظ وجود تمييز”.

″الأفراد لديهم معرفة قليلة بكيفية عمل أنظمة الذكاء الاصطناعي وأن حالتهم الفردية قد تكون في الواقع قمة جبل جليدي على مستوى الأنظمة. وبناءً على ذلك، من الصعب أيضًا اكتشاف حالات معينة ساءت فيها الأمور”.

واستشهد Smouter بمثال فضيحة رعاية الأطفال الهولندية، حيث اتُهمت آلاف المطالبات المتعلقة بالمزايا خطأً بأنها احتيالية. أُجبرت الحكومة الهولندية على الاستقالة بعد أن وجد تقرير عام 2020 أن الضحايا” عوملوا بتحيز مؤسسي”.

قال سموتر إن هذا” يوضح مدى السرعة التي يمكن أن تنتشر بها مثل هذه الاختلالات الوظيفية ومدى صعوبة إثباتها والحصول على تعويض بمجرد اكتشافها وفي هذه الأثناء يحدث ضرر كبير لا يمكن إصلاحه في كثير من الأحيان”.

ضبط تحيزات الذكاء الاصطناعي

يقول شودري إن هناك حاجة إلى هيئة تنظيمية عالمية، مثل الأمم المتحدة، لمعالجة بعض المخاطر المحيطة بالذكاء الاصطناعي.

على الرغم من أن الذكاء الاصطناعي أثبت أنه أداة مبتكرة، فقد أعرب بعض التقنيين وعلماء الأخلاق عن شكوكهم حول سلامة التكنولوجيا الأخلاقية والمعنوية. من بين أهم المخاوف التي أعرب عنها المطلعون في الصناعة المعلومات المضللة. التحيز العنصري والجنساني المضمن في خوارزميات الذكاء الاصطناعي؛ و” الهلوسة” الناتجة عن أدوات شبيهة بـ ChatGPT.

″أشعر بالقلق الشديد من أنه، بسبب الذكاء الاصطناعي التوليدي، ندخل عالم ما بعد الحقيقة حيث لا يوجد شيء نراه على الإنترنت جدير بالثقة – ليس أيًا من النص، ولا أي مقطع فيديو، ولا أي مقطع صوتي، ولكن كيف هل نحصل على معلوماتنا؟ وكيف نضمن أن المعلومات تتمتع بقدر كبير من النزاهة؟”  قال شودري.

حان الوقت الآن لدخول تنظيم ذي مغزى للذكاء الاصطناعي حيز التنفيذ – ولكن مع معرفة مقدار الوقت الذي ستستغرقه المقترحات التنظيمية مثل قانون الذكاء الاصطناعي للاتحاد الأوروبي حيز التنفيذ، يشعر البعض بالقلق من أن هذا لن يحدث بالسرعة الكافية.

″ندعو إلى مزيد من الشفافية والمساءلة في الخوارزميات وكيفية عملها وإعلان الشخص العادي الذي يسمح للأفراد الذين ليسوا خبراء في الذكاء الاصطناعي بالحكم بأنفسهم، وإثبات اختبار ونشر النتائج، وعملية الشكاوى المستقلة، والتدقيق الدوري وإعداد التقارير، ومشاركة المجتمعات العنصرية عندما يتم تصميم التكنولوجيا والنظر في نشرها،” قال Smouter.

ووفقًا لسموتر، فإن قانون الذكاء الاصطناعي، وهو أول إطار تنظيمي من نوعه، قد تضمن نهجًا ومفاهيم الحقوق الأساسية مثل التعويض، مضيفًا أن اللائحة ستنفذ في غضون عامين تقريبًا.

وقال:” سيكون أمراً رائعاً إذا أمكن تقصير هذه الفترة للتأكد من أن الشفافية والمساءلة في صميم الابتكار”.

المصدر: cnbc

شاهد ايضا:

ترجمة عربي دنماركي

ترجمة عربي تركي

ترجمة هولندي عربي

رقم بنك مسقط

رقم بنك أبو ظبي الأول

رقم بنك المشرق

خدمات SEO

معرفة اسم صاحب الحساب البنكي من رقم الحساب

أوقات عمل بنك الراجحي

قرض العمل الحر للنساء

زر الذهاب إلى الأعلى