الذكاء الاصطناعي والاستقرار المالي

نعم هنا. يقدم هذا المنشور شرحًا نظيفًا وأنيقًا حول سبب ظهور الذكاء الاصطناعى تقريبًا لتوزيعه على قرارات أكثر فأكثر في المؤسسات المالية ، وخاصة على الجانب التداول ، وذلك لضمان الالتفافات تقريبًا. أذكر أن تحطم عام 1987 كان نتيجة للتأمين على المحفظة ، والذي كان بمثابة تنفيذ مبكر للتداول الذي يحركه Algo. كانت صناديق التحوط التي تعتمد على تداول الصناديق السوداء شيئًا منذ عقد ونصف بسهولة. بشكل عام ، يحب الكثير من الناس في التمويل أن يكونوا على حافة النزيف بسبب ميزة تنافسية متصورة … حتى لو كان في التسويق فقط!
لاحظ أن المخاطر ليست فقط على جانب قرار الاستثمار/تنفيذ التجارة ، ولكن أيضًا لإدارة المخاطر ، كما هو الحال في حدود الأطراف المقابلة والكتابة التي تضعها على تعرضهم. يشير المؤلف جون دانيلسون إلى صحة الندرة المتأصلة لبيانات مخاطر الذيل ، مما يخلق بقعة عمياء خطيرة للنماذج عمومًا ، ومن المحتمل أن تضعها في الذكاء الاصطناعي على وجه الخصوص.
على عكس العديد من مقالات هذا النوع ، يتضمن هذا القائمة “للقيام” للمنظمين.
بقلم جون دانيلسون ، مدير مدرسة المخاطر المنهجية في لندن للاقتصاد والعلوم السياسية. تم نشره في الأصل في Voxeu
المؤسسات المالية تتبنى بسرعة الذكاء الاصطناعي – ولكن بأي تكلفة للاستقرار المالي؟ يجادل هذا العمود بأن الذكاء الاصطناعى يقدم مخاطر استقرار جديدة قد تكون السلطات المالية غير مستعدة لها ، مما يرفع شبح الأزمات المالية الأسرع والأكثر شراسة. تحتاج السلطات إلى (1) إنشاء خبرة منظمة العفو الدولية وأنظمة الذكاء الاصطناعى ، (2) تجعل منظمة العفو الدولية وظيفة أساسية لأقسام الاستقرار المالي ، (3) الحصول على أنظمة الذكاء الاصطناعى التي يمكن أن تتفاعل مباشرة مع محركات AI للمؤسسات المالية ، (4) تم إعداد منشآت السيولة التي تم إعدادها تلقائيًا ، و (5) من وظائف الذكاء الاصطناعي الحرجة للبائعين من طرف ثالث.
تعتمد المؤسسات المالية في القطاع الخاص بسرعة الذكاء الاصطناعي (AI) ، بدافع من الوعود من تحسينات كبيرة في الكفاءة. في حين أن هذه التطورات إيجابية على نطاق واسع ، فإن الذكاء الاصطناعي يطرح أيضًا تهديدات – والتي تكون غير مفهومة بشكل جيد – لاستقرار النظام المالي.
الآثار المترتبة على الذكاء الاصطناعي للاستقرار المالي مثيرة للجدل. بعض المعلقين هم متعلقون ، مع الحفاظ على أن الذكاء الاصطناعى هو مجرد واحد في سلسلة طويلة من الابتكارات التكنولوجية التي تعيد تشكيل الخدمات المالية دون تغيير النظام بشكل أساسي. وفقًا لهذا الرأي ، لا تشكل الذكاء الاصطناعى تهديدات جديدة أو فريدة من نوعها للاستقرار ، لذلك فمن المعتاد بالنسبة للسلطات المالية. من المحتمل أن تقوم السلطة التي تأخذ هذا الرأي بتفويض تحليل تأثير الذكاء الاصطناعي إلى أقسام تكنولوجيا المعلومات أو البيانات في المنظمة.
أنا لا أتفق مع هذا. الفرق الأساسي بين الذكاء الاصطناعي والتغيرات التكنولوجية السابقة هو أن الذكاء الاصطناعى يتخذ قرارات مستقلة بدلاً من مجرد إبلاغ صانعي القرار البشري. إنه عامل تعظيم عقلاني ينفذ المهام المخصصة لها ، واحدة من تصنيفات Norvig و Russell (2021) من الذكاء الاصطناعي. بالمقارنة مع التغييرات التكنولوجية التي جاءت من قبل ، فإن هذا الحكم الذاتي من الذكاء الاصطناعي يثير قضايا جديدة ومعقدة للاستقرار المالي. هذا يعني أن البنوك المركزية والسلطات الأخرى يجب أن تجعل تحليل تأثير الذكاء الاصطناعى مجالًا أساسيًا في أقسام الاستقرار المالي ، بدلاً من مجرد إسكانها أو البيانات.
الذكاء الاصطناعي والاستقرار
تظهر المخاطر التي تشكلها الذكاء الاصطناعي للاستقرار المالي عند تقاطع تكنولوجيا الذكاء الاصطناعى والنظريات التقليدية لهشاشة النظام المالي.
تتفوق الذكاء الاصطناعي في اكتشاف واستغلال الأنماط في مجموعات البيانات الكبيرة بسرعة وموثوقية وبثانية. ومع ذلك ، يعتمد أدائها اعتمادًا كبيرًا على تدريبه على البيانات ذات الصلة ، يمكن القول إنه أكثر من البشر. إن قدرة الذكاء الاصطناعى على الاستجابة بسرعة وحاسمة-جنبًا إلى جنب مع عملية صنع القرار غير المعتادة ، والتواطؤ مع المحركات الأخرى ، والميل إلى الهلوسة-هو في صميم مخاطر الاستقرار الناشئة عنها.
يتم تضمين AI في المؤسسات المالية من خلال بناء الثقة من خلال أداء مهام بسيطة للغاية بشكل جيد للغاية. نظرًا لأنه يتم ترقيته إلى مهام متطورة بشكل متزايد ، فقد ينتهي بنا المطاف بإصدار AI من مبدأ بيتر.
ستصبح منظمة العفو الدولية ضرورية ، بغض النظر عن ما يرغب صانعي القرار الكبير. طالما توفر الذكاء الاصطناعى وفورات كبيرة في التكاليف ويزيد من الكفاءة ، فليس من المصداقية القول ، “لن نستخدم الذكاء الاصطناعي أبدًا لهذه الوظيفة” أو “سيكون لدينا دائمًا البشر في الحلقة”.
من الصعب بشكل خاص التأكد من قيام الذكاء الاصطناعى بما يفترض أن تفعله في مهام عالية المستوى ، لأنها تتطلب تعليمات أكثر دقة من البشر. ببساطة إخباره بـ “الحفاظ على سلامة النظام” واسعة جدًا. يمكن للبشر ملء تلك الفجوات بالحدس والتعليم الواسع والحكم الجماعي. الذكاء الاصطناعى الحالي لا يمكن.
مثال رائع على ما يمكن أن يحدث عندما يتخذ الذكاء الاصطناعى قرارات مالية مهمة تأتي من Scheurer et al. (2024) ، حيث تم توجيه نموذج لغة بشكل صريح إلى كل من القوانين للأوراق المالية وزيادة الأرباح. عندما تم إعطاؤها نصيحة خاصة ، فإنها تشارك على الفور في التداول غير القانوني أثناء الكذب عليها على المشرفين على الإنسان.
يجب أن يشرح صانعي القرار المالي اختياراتهم ، ربما لأسباب قانونية أو تنظيمية. قبل تعيين شخص ما للحصول على وظيفة كبار ، نطلب من الشخص أن يشرح كيف سيكون رد فعله في الحالات الافتراضية. لا يمكننا القيام بذلك من خلال الذكاء الاصطناعى ، لأن المحركات الحالية لديها قابلية محدودة-لمساعدة البشر على فهم كيفية وصول نماذج الذكاء الاصطناعى إلى استنتاجاتها-خاصة في مستويات عالية من اتخاذ القرارات.
الذكاء الاصطناعي عرضة للهلوسة ، مما يعني أنه قد يعطي بثقة إجابات هراء. هذا أمر شائع بشكل خاص عندما لا تكون البيانات ذات الصلة في مجموعة بيانات التدريب الخاصة بها. هذا هو أحد الأسباب التي تجعلنا نتعرف على استخدام منظمة العفو الدولية لإنشاء سيناريوهات اختبار الإجهاد.
تسهل الذكاء الاصطناعي عمل أولئك الذين يرغبون في استخدام التكنولوجيا لأغراض ضارة ، سواء لإيجاد الثغرات القانونية والتنظيمية ، أو ارتكاب جريمة ، أو الانخراط في الإرهاب ، أو تنفيذ هجمات الدولة القومية. لن يتبع هؤلاء الأشخاص الإرشادات أو اللوائح الأخلاقية.
تعمل اللائحة على مواءمة الحوافز الخاصة مع المصالح المجتمعية (Dewatripont and Tirole 1994). ومع ذلك ، فإن الأدوات التنظيمية التقليدية – الجزر والعصي – لا تعمل مع الذكاء الاصطناعي. لا يهتم بالمكافآت أو العقوبة. هذا هو السبب في أن اللوائح يجب أن تتغير بشكل أساسي.
بسبب الطريقة التي يتعلم بها الذكاء الاصطناعي ، فإنه يلاحظ قرارات جميع محركات الذكاء الاصطناعى الأخرى في القطاعين الخاص والعامة. هذا يعني أن المحركات تتحسن للتأثير على بعضها البعض: تدريب محركات الذكاء الاصطناعي الأخرى من الذكاء الاصطناعي على الخير والسيئة ، مما يؤدي إلى حلقات التغذية المرتدة غير القابلة للكشف التي تعزز السلوك غير المرغوب فيه (انظر Calvano et al. 2019). هذه القنوات الخفية من الذكاء الاصطناعي التي لا يمكن للبشر أن يراقبوها أو فهمها في الوقت الحقيقي قد تؤدي إلى الركض ، وتبخر السيولة ، والأزمات.
السبب الرئيسي وراء صعوبة منع الأزمات هو كيف يتفاعل النظام مع محاولات السيطرة. لا تقبل المؤسسات المالية بصراحة ما تخبرهم به السلطات. لا ، أنها تتفاعل استراتيجيا. والأسوأ من ذلك ، نحن لا نعرف كيف سيتفاعلون مع الإجهاد المستقبلي. أظن أنهم لا يعرفون أنفسهم. وظيفة رد الفعل لكل من المشاركين في القطاع العام والخاص في الإجهاد الشديد غير معروفة في الغالب.
هذا هو أحد الأسباب التي تجعل لدينا القليل من البيانات حول الأحداث المتطرفة. آخر هو أن الأزمات كلها فريدة من نوعها بالتفصيل. كما أنها لا مفر منها لأن “الدروس المستفادة” تشير إلى أننا نغير الطريقة التي ندير بها النظام بعد كل أزمة. من البديهي أن تظهر قوى عدم الاستقرار حيث لا نبحث.
AI يعتمد على البيانات. في حين أن النظام المالي يولد كميات واسعة من البيانات يوميًا – قيمة exabytes – فإن المشكلة هي أن معظمه يأتي من منتصف توزيع نتائج النظام بدلاً من ذيول. الأزمات كلها عن ذيول.
هذا النقص في البيانات يدفع الهلوسة ويؤدي إلى خطر في الطريق الخاطئ. نظرًا لأن لدينا القليل من البيانات حول نتائج النظام المالي المتطرف ولأن كل أزمة فريدة من نوعها ، فإن الذكاء الاصطناعى لا يمكن أن يتعلم الكثير من الإجهاد الماضي. أيضا ، فهي تعرف القليل عن أهم العلاقات السببية. في الواقع ، مثل هذه المشكلة هي عكس ماهية الذكاء الاصطناعى. عندما تكون الذكاء الاصطناعي مطلوبًا أكثر من غيرها ، فإنه يعرف أقل ما يسبب مخاطر في الطريق الخاطئ.
تتأثر التهديدات التي تشكلها الذكاء الاصطناعي للاستقرار بالزراعة أحادية المخاطر ، والتي تعد دائمًا محركًا رئيسيًا للازدهار والكشف. تقنية الذكاء الاصطناعي لها وفورات كبيرة من الحجم ، مدفوعة بالتكامل في رأس المال البشري والبيانات والحساب. تم تعيين ثلاثة بائعين للسيطرة على مساحة التحليلات المالية لمنظمة العفو الدولية ، ولكل منها ما يقرب من احتكار في منطقتهم المحددة. ينشأ التهديد بالاستقرار المالي عندما لا يكون لدى معظم الناس في القطاعين العام والعام سوى فهمهم للمشهد المالي من بائع واحد. والنتيجة هي المخاطرة أحادية الثقافة. نقوم بتضخيم نفس الفقاعات ونفتقد نفس نقاط الضعف النظامية. البشر أكثر غير متجانسة ، وبالتالي يمكن أن يكون أكثر من تأثير الاستقرار عندما يواجهون أحداث خطيرة غير متوقعة.
سرعة الذكاء الاصطناعي والأزمات المالية
عند مواجهة الصدمات ، لدى المؤسسات المالية خياران: تشغيل (أي زعزعة الاستقرار) أو البقاء (أي الاستقرار). هنا ، تعمل قوة الذكاء الاصطناعى على حساب النظام ، ليس أقلها لأن الذكاء الاصطناعى في جميع أنحاء الصناعة سوف يتخذ نفس القرار بسرعة وجماعية.
عندما لا تكون الصدمة خطيرة للغاية ، فمن الأمثل امتصاص وحتى التجارة ضده. عندما تتقارب محركات الذكاء الاصطناعي بسرعة على توازن “البقاء” ، فإنها تصبح قوة للاستقرار عن طريق وضع أرضية تحت السوق قبل أن تصبح الأزمة خطيرة للغاية.
على العكس من ذلك ، إذا كان تجنب طلب الإفلاس يتطلب إجراءات سريعة وحاسمة ، مثل البيع في السوق المتساقطة ، وبالتالي يزعزع استقرار النظام المالي ، فإن محركات الذكاء الاصطناعى ستفعل ذلك بالضبط. سيرغب كل محرك في تقليل الخسائر من خلال كونه أول من يتم تشغيله. آخر ما يتصرف يواجه الإفلاس. سيتم بيع المحركات في أسرع وقت ممكن ، والاتصال بالقروض ، وتشغيل الزناد. هذا سيجعل الأزمة أسوأ في دورة مفرغة.
إن سرعة وكفاءة الذكاء الاصطناعى تعني أن أزمات الذكاء الاصطناعى ستكون سريعة وشغفًا (دانييلسون وأوتهمان 2024). ما كان يستغرق أيامًا وأسابيع قبل أن يستغرق دقائق أو ساعات.
خيارات السياسة
قد لا تعمل الآليات التقليدية لمنع الأزمات المالية وتخفيفها في عالم من الأسواق التي تحركها الذكاء الاصطناعي. علاوة على ذلك ، إذا بدت السلطات غير مستعدة للرد على الصدمات الناتجة عن الذكاء الاصطناعى ، فإن ذلك في حد ذاته قد يجعل الأزمات أكثر احتمالًا.
تحتاج السلطات إلى خمس قدرات رئيسية للاستجابة الفعالة لمنظمة العفو الدولية:
- إنشاء خبرة منظمة العفو الدولية الداخلية وبناء أو الحصول على أنظمة الذكاء الاصطناعى الخاصة بهم. هذا أمر بالغ الأهمية لفهم الذكاء الاصطناعي ، والكشف عن المخاطر الناشئة ، والاستجابة بسرعة للاضطرابات في السوق.
- اجعل منظمة العفو الدولية وظيفة أساسية لأقسام الاستقرار المالي ، بدلاً من وضع تحليل تأثير الذكاء الاصطناعي في أقسام الإحصاء أو تكنولوجيا المعلومات.
- الحصول على أنظمة الذكاء الاصطناعى التي يمكن أن تتفاعل مباشرة مع محركات AI للمؤسسات المالية. أصبح الكثير من تمويل القطاع الخاص آليًا الآن. تتيح روابط AI-to-AI AI-AAI تقديراً للمنظمات الدقيقة ، والاكتشاف بشكل أسرع للإجهاد ، والبصيرة الأكثر شفافية في القرارات الآلية.
- إعداد مرافق السيولة التي تلقائي تلقائيًا. نظرًا لأن الأزمة التالية ستكون سريعة للغاية ، فقد يتصرف بنك الذكاء الاصطناعى بالفعل قبل أن يتاح له الرئيس التنفيذي للبنك فرصة لالتقاط الهاتف للرد على مكالمة حاكم البنك المركزي. قد تكون مرافق السيولة التقليدية الحالية بطيئة للغاية ، مما يجعل المرافق التي يتم تشغيلها تلقائيًا ضرورية.
- الاستعانة بمصادر خارجية وظائف الذكاء الاصطناعي الحرجة لبائعي الطرف الثالث. سيؤدي ذلك إلى سد الفجوة الناجمة عن عدم قدرة السلطات على تطوير القدرات التقنية اللازمة داخل الشركة. ومع ذلك ، فإن الاستعانة بمصادر خارجية تخلق مخاطر قضائية وتركيز ويمكن أن يعوق التراكم الضروري لمهارات الذكاء الاصطناعي من قبل موظفي السلطة.
خاتمة
ستجلب الذكاء الاصطناعي فوائد كبيرة للنظام المالي – كفاءة أكبر ، وتحسين تقييم المخاطر ، وخفض تكاليف المستهلكين. لكنه يقدم أيضًا مخاطر استقرار جديدة لا ينبغي تجاهلها. تحتاج الأطر التنظيمية إلى إعادة التفكير ، ويجب تكييف أدوات إدارة المخاطر ، ويجب أن تكون السلطات مستعدة للعمل في Pace AI.
كيف تختار السلطات للرد تأثير كبير على احتمال وشدة أزمة الذكاء الاصطناعى القادمة.
انظر المنشور الأصلي للمراجع