الأحد 23 نوفمبر 2025 - 08:22:01 م

شركات التأمين تتحاشى تغطية مخاطر الذكاء الاصطناعي

شركات التأمين تتحاشى تغطية مخاطر الذكاء الاصطناعي

دبي، الإمارات العربية المتحدة:

توجّه صناعة التأمين العالمية رسالة واضحة، بأن المخاطر التي يطرحها الذكاء الاصطناعي المتطور أصبحت أكبر من أن تُؤمَّن بالطريقة التقليدية، وأكثر غموضاً وترابطاً مما يمكن نمذجته.


فخلال العام الماضي 2024، بدأت عدة شركات تأمين كبرى — مثل «إيه أي جي» و«دبليو آر بيركلي» و«غريت أميركا»، الانسحاب أو فرض قيود حادة على التغطية المتعلقة بمسؤوليات الذكاء الاصطناعي. ويمثل هذا الانسحاب لحظة حاسمة في تطور اقتصاد الذكاء الاصطناعي، إذ يعكس إدراكاً بأن حجم العواقب القانونية والمالية المحتملة لفشل هذه الأنظمة، قد يتجاوز قدرات أسواق التأمين الحالية.


يأتي هذا التحول في وقت تنتشر فيه أنظمة الذكاء الاصطناعي في جميع قطاعات الأعمال والحكومات والمال والإعلام. ومع هذا الانتشار تتسع دائرة التعرض للمخاطر. فالقضايا المحتملة تتراوح من دعاوى التشهير الناتجة عن هلوسات النماذج، إلى انتهاكات الخصوصية وحقوق الملكية الفكرية، مروراً بالأخطاء في القرارات التلقائية أو نشر المعلومات المضللة.


ولا شك أن نطاق الخسائر المحتملة واسع جداً. وبالنسبة لشركات التأمين — التي تبني أعمالها على تحليل البيانات التاريخية — يبدو الذكاء الاصطناعي كتكنولوجيا بلا سوابق موثوقة، وبإمكانها أن تولّد خسائر مترابطة تصل قيمتها إلى مليارات الدولارات.

 

خطر يصعب قياسه


يكمن جوهر المشكلة في حالة عدم اليقين. فشركات التأمين تزدهر عندما يمكن نمذجة المخاطر بالاعتماد على سجلات المطالبات والأنماط الإحصائية. لكن الذكاء الاصطناعي يربك هذا النموذج. فالنماذج الحديثة، خصوصاً النماذج اللغوية الضخمة، تعمل كصندوق أسود، ومن الصعب تتبع الأسباب الدقيقة لمخرجاتها. فإذا أوصى نظام ذكاء اصطناعي بقرارات مالية خاطئة، أو قدّم إرشادات طبية مضللة، أو نشر معلومات تشهيرية، يصبح تحديد المسؤولية أمراً معقداً. هل الذنب يقع على النموذج نفسه؟ أم المطوّر؟ أم الشركة التي نشرته؟ أم المستخدم النهائي؟

هذا الغموض يعيق تقييم المخاطر. فشركات التأمين لا تستطيع تقدير احتمال وقوع الخسائر ولا حجمها المحتمل، ولا تحديد المسؤول الحقيقي ما يجعل تحديد أسعار التغطية بشكل مسؤول أمراً شبه مستحيل.


ويزداد الأمر صعوبة مع سرعة تطور النماذج. فكل بضعة أشهر تظهر نماذج أكثر قوة — وبالتالي أكثر غموضاً — ما يغيّر مشهد المخاطر قبل أن تتمكن شركات التأمين من دراسة النموذج السابق.

 

خسائر مترابطة فئة جديدة من الكوارث


الافتراض الأساسي للتأمين التقليدي هو أن المطالبات مستقلة إلى حد كبير. فحريق منزل في سيدني لا يسبب حريقاً في سنغافورة، وحالة سوء ممارسة طبية في الرياض لا تستدعي أخرى في لوس أنجلوس. لكن الذكاء الاصطناعي يقلب هذه الفكرة. فإذا قدّم نموذج مستخدم على نطاق واسع توصيات خاطئة، أو أنتج معلومات ضارة، أو تعرض لخلل منهجي، فقد يؤدي ذلك إلى آلاف المطالبات في وقت واحد.

هذا النوع من الخسائر يشبه الكوارث الطبيعية — الأعاصير والزلازل والأوبئة — أكثر مما يشبه أحداث المسؤولية التقليدية. والفرق أن الخلل في الذكاء الاصطناعي قد ينتج من تحديث برمجي بسيط، لا من حدث نادر. ولهذا السبب تشعر شركات التأمين بالقلق من كوارث الذكاء الاصطناعي، حيث يمكن لعيب واحد أن يولد خسائر ضخمة في أرجاء العالم.


ولدرء ذلك، بدأت عدة شركات بإضافة استثناءات واسعة. فقد اقترحت «دبليو آر بيركلي» مثلاً استثناء المطالبات الناتجة عن أي استخدام فعلي أو مزعوم للذكاء الاصطناعي في منتج أو خدمة — وهو نص فضفاض للغاية يزيل فعلياً كل تغطية متعلقة بالذكاء الاصطناعي. شركات أخرى تقدّم ملحقات محدودة تغطي مخاطر ضيقة فقط، وبحدود مالية صغيرة.

 

شركات الذكاء الاصطناعي نفسها تعاني في الحصول على التأمين


يتضح تأثير هذا الانسحاب بشكل أكبر لدى شركات الذكاء الاصطناعي الكبرى نفسها. فشركتا أوبن إيه آي وأنثروبيك، وهما من أبرز مطوري النماذج، تواجهان صعوبات شديدة في الحصول على تأمين مسؤولية واسع النطاق. وتشير التقارير إلى أن تغطية «أوبن إيه آي» تبلغ نحو 300 مليون دولار وهو رقم يبدو ضئيلاً مقارنة بالدعاوى المحتملة التي قد تصل إلى مليارات.

هذا التردد من شركات التأمين — على الرغم من ارتفاع أقساط هذه النوعية من التغطيات — يعكس مقدار الاضطراب الذي تسبب به الذكاء الاصطناعي. فالمؤمِّنون يلمحون بوضوح إلى أن حجم المسؤولية قد يفوق نطاق التأمين التجاري التقليدي.


نتيجة لذلك، بدأت بعض الشركات تبحث في التأمين الذاتي من خلال إنشاء صناديق داخلية أو شركات تأمين تابعة تتحمل مخاطرها بنفسها. ولئن كان هذا النموذج معروفاً في صناعات الطيران والطاقة، إلا أن اعتماده في قطاع الذكاء الاصطناعي يمكن أن يغيّر نماذج التمويل ويبطئ التوسع.


الغموض التنظيمي يزيد المشكلة تعقيداً


يزيد من المخاطر أيضاً غياب إطار تنظيمي موحد. فالاتحاد الأوروبي يفرض غرامات على الأنظمة عالية الخطورة، والمحاكم الأمريكية تنظر في قضايا تدريب البيانات، فيما تعد بلدان أخرى قواعد جديدة للشفافية والخوارزميات. هذا التشتت يجعل المخاطر القانونية متعددة الأوجه. وقد بدأت بعض شركات التأمين بتطوير تغطيات محدودة للغرامات التنظيمية، لكنها تبقى ضيقة ومحدودة السقف.

اتجاهات جديدة في عالم التأمين


على الرغم من الانسحاب، يتفق معظم الخبراء على أن التأمين لن يختفي بل سيعاد بناؤه. وتشمل الاتجاهات المحتملة: تأمينات متخصصة للذكاء الاصطناعي وتغطية مخاطر محددة بدقة مثل التشهير، والتحيز الخوارزمي، أو تسريب البيانات.

وهناك التأمين المُؤطر أي دفع التعويضات بناءً على مؤشرات محددة بدلاً من إثبات الخطأ. أما صناديق المخاطر المشتركة فهي آليات تشبه صناديق تأمين الإرهاب أو الحوادث النووية. وأخيراً، إعادة التأمين الحكومية التي تتطلب تدخل الدولة لدعم خسائر الذكاء الاصطناعي الكبرى إذا أصبحت أكبر من قدرة السوق. هذه الحلول لن تزيل عدم اليقين بالكامل، لكنها قد تجعل المخاطر أكثر قابلية للقياس.

الأثر الأكبر على الابتكار والاستثمار


النقص في تأمين المسؤولية قد يؤثر على انتشار الذكاء الاصطناعي عالمياً. وقد تتردد الشركات الكبرى في الاعتماد الكامل على الذكاء الاصطناعي دون تأمين، وتضطر الشركات الناشئة لتحمل مخاطر غير مؤمّنة، ما يزيد كلفة رأس المال. أما المستثمرون فقد يطالبون بعوائد أعلى، فيما قد تفرض الجهات التنظيمية قواعد أكثر صرامة لتعويض فجوة التأمين.

والخلاصة أن تراجع شركات التأمين ليس مجرد قصة مالية، بل تحدٍ هيكلي يعكس إلى أي مدى سبقت قدرات الذكاء الاصطناعي الأطر القانونية والمالية المصممة لضبط المخاطر. وحتى يتم تطوير نماذج تأمين جديدة، سيظل القطاع يعمل وسط مستويات مرتفعة من عدم اليقين ما يجبر الشركات والمستثمرين والمشرعين على إعادة التفكير في كيفية نشر هذه التكنولوجيا الحاسمة.