وبينما يُظهر غالبية الناس استخدامًا واعيًا ومتكرّرًا لتطبيقات الذكاء الاصطناعي، فإن معدلات الثقة بها لا تزال متدنية، وسط ضعف في الوعي والتدريب، وغياب واضح للحوكمة الفاعلة، سواء على المستوى المؤسسي أو التشريعي.
الدراسة، التي أجرتها جامعة ملبورن بالتعاون مع شركة KPMG، تسلط الضوء على هذه المفارقة، وتدق ناقوس الخطر حول "فجوة الحوكمة" التي قد تهدد فرص تبني الذكاء الاصطناعي بشكل آمن ومستدام ما لم تتم معالجتها بسرعة وحسم.
وكشفت دراسة عالمية عن الثقة في الذكاء الاصطناعي أن أكثر من نصف الناس حول العالم غير مستعدين للثقة في الذكاء الاصطناعي، مما يعكس توتراً أساسياً بين فوائده الواضحة ومخاطره المتصورة.
النتائج الرئيسية
في عصر الذكاء الذكي قد وصل – 66٪ من الناس يستخدمون الذكاء الاصطناعي بانتظام، و83٪ يعتقدون أن استخدامه سيحقق مجموعة واسعة من الفوائد.
ومع ذلك، لا تزال الثقة – وهي عنصر مركزي في قبول الذكاء الاصطناعي – تمثل تحدياً حاسماً. فقط 46٪ من الناس حول العالم على استعداد للثقة بأنظمة الذكاء الاصطناعي، ويرتبط ذلك بانخفاض مستوى معرفة الذكاء الاصطناعي – حيث أفاد فقط اثنان من كل خمسة (39٪) أنهم تلقوا شكلاً من أشكال التدريب، و40٪ فقط أشاروا إلى أن أماكن عملهم لديها سياسات أو إرشادات حول استخدام الذكاء الاصطناعي التوليدي.
هناك تفويض شعبي بوضع تنظيم وطني ودولي للذكاء الاصطناعي، حيث يعتقد 43٪ فقط أن التنظيمات الحالية كافية.
وتشير البيانات إلى أن أقل من نصف المؤسسات قد تستخدم الذكاء الاصطناعي دون دعم أو حوكمة كافيين.
دراسة "الثقة، المواقف، واستخدام الذكاء الاصطناعي: دراسة عالمية 2025" التي قادتها البروفيسورة نيكول جيليسبي، رئيسة قسم الثقة في كلية الأعمال بجامعة ملبورن، والدكتور ستيف لوكي، زميل أبحاث في كلية ملبورن، بالتعاون مع KPMG، هي الدراسة العالمية الأكثر شمولاً عن ثقة الجمهور واستخدامه ومواقفه تجاه الذكاء الاصطناعي.
وشملت الدراسة أكثر من 48,000 شخص من 47 دولة بين نوفمبر 2024 ويناير 2025.
ووجدت أنه رغم أن 66٪ من الأشخاص يستخدمون الذكاء الاصطناعي بانتظام، فإن أقل من نصف المشاركين على استعداد للثقة به (46٪). مقارنة بدراسة سابقة أُجريت قبل إطلاق ChatGPT في عام 2022، فإن الناس أصبحوا أقل ثقة وأكثر قلقًا بشأن الذكاء الاصطناعي مع ازدياد استخدامه.
الأفراد والمؤسسات أكثر احتمالًا للثقة في أنظمة الذكاء الاصطناعي عندما يفهمون كيفية عمله، ومع ذلك تُظهر الدراسة أن 39٪ فقط تلقوا تدريباً على الذكاء الاصطناعي. وبما يتماشى مع هذه النسبة المنخفضة، أفاد حوالي 48٪ أنهم يملكون معرفة محدودة بالذكاء الاصطناعي، مشيرين إلى أنهم لا يفهمون متى أو كيف يُستخدم.
قالت البروفيسورة جيليسبي: "ثقة الجمهور في تقنيات الذكاء الاصطناعي واستخدامها الآمن والموثوق بها أمر محوري لاستمرار القبول والتبني."
وأضافت: "نظراً للتأثيرات التحويلية للذكاء الاصطناعي على المجتمع والعمل والتعليم والاقتصاد – فإن إشراك صوت الجمهور في هذا الحوار لم يكن أبدًا أكثر أهمية."
الذكاء الاصطناعي في العمل والتعليم
عصر العمل بالذكاء الاصطناعي قد بدأ، حيث يستخدم 58٪ من الموظفين الذكاء الاصطناعي عن قصد – ويستخدمه ثلثهم (31٪) أسبوعياً أو يومياً.
هذا الاستخدام العالي يحقق مجموعة من الفوائد، حيث أبلغ معظم الموظفين عن زيادة في الكفاءة، والوصول إلى المعلومات، والابتكار. وأفاد ما يقرب من نصف المشاركين بأن الذكاء الاصطناعي زاد من الأنشطة التي تولد الإيرادات.
ومع ذلك، فإن 60٪ فقط من المؤسسات توفر تدريباً مسؤولًا على الذكاء الاصطناعي، و34٪ فقط أفادوا بأن لديهم سياسات أو إرشادات تنظيمية لاستخدام أدوات الذكاء الاصطناعي التوليدي.
قال ديفيد واترسون (في الصورة)، المدير المساعد في KPMG في المناطق التابعة للتاج البريطاني: "استخدام الذكاء الاصطناعي في بيئات العمل يخلق مخاطر معقدة للمؤسسات، وهناك فجوة حوكمة آخذة في الاتساع."
وكشفت الدراسة أن ما يقرب من نصف الموظفين يعترفون باستخدام الذكاء الاصطناعي بطرق تتعارض مع سياسات الشركات، بما في ذلك تحميل معلومات حساسة إلى أدوات عامة مجانية مثل ChatGPT.
وأضاف: "قد يكون الاستخدام غير المنضبط ناتجاً عن تخلف حوكمة الذكاء الاصطناعي المسؤول. ففي الاقتصادات المتقدمة، أبلغ فقط 55٪ من الموظفين أن لدى مؤسساتهم آليات لدعم تبني الذكاء الاصطناعي واستخدامه المسؤول، بما في ذلك استراتيجية وثقافة تنظيمية مناسبة، وتدريب كافٍ، وعمليات حوكمة فعالة."
ووفقًا للدراسة، يعتمد العديد من المستخدمين على مخرجات الذكاء الاصطناعي دون التحقق من دقتها (66٪)، ويرتكبون أخطاء في أعمالهم بسبب الذكاء الاصطناعي (56٪)، وما يزيد من تعقيد هذه المخاطر هو أن أكثر من نصف الموظفين (57٪) يقولون إنهم يخفون استخدامهم للذكاء الاصطناعي ويعرضون أعمالاً أنتجها الذكاء الاصطناعي على أنها أعمالهم الخاصة.
كما أن هذا النقص في الحوكمة واضح أيضاً في المؤسسات التعليمية، حيث لا تمتلك سوى نصفها سياسات أو موارد أو تدريب على الاستخدام المسؤول للذكاء الاصطناعي.
الذكاء الاصطناعي في المجتمع
أفاد 73٪ من الأشخاص بأنهم شهدوا فوائد شخصية من الذكاء الاصطناعي، بما في ذلك تقليل الوقت المستغرق في المهام المتكررة، وتحسين التخصيص، وتقليل التكاليف، وتحسين الوصول.
لكن، في المقابل، أعرب أربعة من كل خمسة عن قلقهم بشأن المخاطر، وأفاد اثنان من كل خمسة بتجارب سلبية، تتراوح من فقدان التفاعل الإنساني، ومخاطر الأمن السيبراني، وانتشار المعلومات المضللة، والنتائج غير الدقيقة، إلى فقدان المهارات.
ويعتقد 70٪ أن تنظيم الذكاء الاصطناعي ضروري، لكن 43٪ فقط يرون أن القوانين الحالية كافية.
هناك طلب عام واضح لوجود قوانين دولية، وشراكة بين الحكومات والصناعات للحد من هذه المخاطر. كما أن 87٪ من المشاركين يريدون قوانين أقوى لمكافحة المعلومات المضللة الناتجة عن الذكاء الاصطناعي، ويتوقعون من وسائل الإعلام ومنصات التواصل الاجتماعي تنفيذ عمليات تدقيق معلومات أقوى.
واصل ديفيد: "على الرغم من أن هذه الدراسة لم تشمل مشاركين من المناطق التابعة للتاج، إلا أن المؤسسات في مناطقنا تواجه تحديات مماثلة. إلى حد ما، كان الذكاء الاصطناعي جزءًا من المشهد التجاري منذ سنوات، ولكن الارتفاع السريع والوصول العام الواسع إلى الأنظمة المتقدمة، لا سيما الذكاء الاصطناعي التوليدي، جلب وعود الذكاء الاصطناعي ومخاطره المرتبطة إلى الواجهة."
"المؤسسات المتطلعة إلى المستقبل لا تعتمد على العشوائية في تبني الابتكار. بل تتبع نهجًا مدروسًا واستراتيجيًا، حيث تُقيّم بعناية ما إذا كان الاستثمار في الذكاء الاصطناعي والأتمتة سيحقق فوائد تجارية. وهي تسعى إلى التوازن بين الابتكار والاحتياجات التشغيلية، والامتثال التنظيمي، والأهداف التجارية طويلة الأجل، وتعمل بنشاط على معالجة هذه التحديات وتحويل المخاطر المحتملة إلى فرص استراتيجية."