الثقة هي التي تربط كل شيء
الثقة هي التي تربط كل شيء

الذكاء الاصطناعي والشفافية: الطريق نحو بناء الثقة

الذكاء الاصطناعي أداة قوية للغاية مع إمكانية ترقية كيفية اتخاذ القرارات
تاريخ النشر

في عالم الأعمال، كما في الحياة، فإن الثقة هي التي تربط كل شيء ــ الاستثمار، والصفقات، والتوظيف. ويتعين على العملاء أن يثقوا في مقدمي خدمات الحوسبة السحابية، لأنهم إذا لم يفعلوا ذلك، فسوف يشككون في كل قرار تكنولوجي يتخذونه. ويتعين على المدير أن يثق في الموظف، لأنه إذا لم يفعل ذلك، فسوف يضطر إلى إدارة كل مهمة على حدة، ولن يكون لديه وقت للتفكير الاستراتيجي. وفي هذين المثالين، نرى نتائج الثقة بوضوح. ففي المثال الأول، يجرؤ عميل الحوسبة السحابية على الابتكار؛ وفي المثال الثاني، يفعل المدير الشيء نفسه. لقد تم تغطية الأساسيات، لذا فلا داعي للقلق.

ولكن وراء كل علاقة ثقة توجد عمليات. والسبب في ذلك هو أن مزود الخدمة السحابية والموظف يتبعان هذه العمليات بإخلاص، وهذا ما يلهم الثقة. وبينما تقرأ هذا، نجد أن مئات إن لم يكن آلاف أنظمة الذكاء الاصطناعي مدمجة في العمليات اليومية للشركات في دول مجلس التعاون الخليجي. ووفقًا لبحث أجرته شركة ماكينزي في عام 2023، فقد تبنت 75% من الشركات في قطاع التجزئة الإقليمي وحده الذكاء الاصطناعي لتعزيز وظيفة تجارية واحدة على الأقل. ولا يسع المرء إلا أن يفترض أن هذه الشركات تثق في الذكاء الاصطناعي.

"الصندوق الأسود"

ولكن ما هو أصل هذه الثقة؟ من المعروف أن خوارزميات الذكاء الاصطناعي غير حتمية. وفي أغلب الحالات، من الصعب إن لم يكن من المستحيل تتبع النتائج إلى قرار فرعي داخل النظام. وهذا يعطي الذكاء الاصطناعي شعورا بأنه "صندوق أسود" قد يفسح المجال للشك. ولكن بطبيعة الحال، إذا أرسلت النتائج خطوط الاتجاه في الاتجاه الصحيح، فمن غير المرجح أن يهتم صناع القرار بالتعمق في مصدر الأفكار التي سبقت النجاح. وبالتالي، يمكن أن تأتي الثقة قبل العناية الواجبة، حيث يجب أن يكون العكس.

الواقع أن الذكاء الاصطناعي أداة قوية للغاية تتمتع بالقدرة على تحسين كيفية اتخاذ القرارات. فمن غرف مجلس الوزراء إلى غرف الاجتماعات إلى غرف المعيشة، يلعب الذكاء الاصطناعي دوراً في تحسين حياة الناس. على سبيل المثال، لا تتمتع نماذج اللغة الكبيرة بمهارة فهم النية والفروق الدقيقة في الاستفسارات البشرية فحسب؛ بل إنها قادرة على تنظيم الاستجابات بطرق ذات مغزى تساعد على استيعاب المعرفة وتؤدي إلى رؤى أفضل. ولعل من غير المستغرب أن يحتل الذكاء الاصطناعي التوليدي (العائلة التي تنتمي إليها نماذج اللغة الكبيرة) مكانه بسرعة في التوقعات الاقتصادية. ووفقاً لتقدير من شركة ستراتيجي& التابعة لشركة برايس ووترهاوس كوبرز، فإن دول مجلس التعاون الخليجي قد تولد ما يقرب من 10 دولارات أميركية مقابل كل دولار يستثمر في نماذج اللغة الكبيرة.

مرة أخرى، إذا نظرنا وراء الأرقام، نرى إمكانات في قدرة LLMs على ربط البشر بمجموعات بيانات ضخمة كانت لتكون بعيدة المنال بالنسبة للأشخاص غير الفنيين لولا ذلك. ولكننا نرى أيضًا حرصًا على الثقة بسبب النتائج القوية. ومع ذلك، إذا خصصنا لحظة للنظر في صناعة خاضعة لتنظيم شديد مثل BFSI، فسنجد عمليات تجارية وسير عمل قديمة محددة حول الاتساق والخصوصية. عند التدقيق، يجب على البنك أن يشرح بالضبط ما يفعله بالبيانات أثناء كل من سير العمل. توفر LLMs واجهة رائعة بين البيانات الخام، والرؤى السريعة التي يمكن أن توفرها مغرية لـ BFSI. ولكن عند الإجابة على سؤال ما حدث للبيانات أثناء العملية، تبدأ الأمور في أن تصبح غامضة. ويمكن أن تتأثر الثقة.

القانون والنظام

وعندما تتضرر الثقة، يترتب على ذلك تأثير سلبي يتمثل في انخفاض الابتكار وربما حتى تباطؤ النمو الاقتصادي. وعلى هذا النحو، هناك ضغوط متزايدة لإيجاد التوازن الصحيح بين الثقة الكاملة ووضع الحواجز الواقية. وبعيدا عن كونها عائقا أمام الصناعات الخاضعة للتنظيم الشديد، فإن تنظيم الذكاء الاصطناعي هو محاولة لإخراجه من صندوقه الأسود وجعله مسؤولا.

جو دنليفي
جو دنليفي

إن أحد الأماكن التي يحدث فيها هذا الأمر الآن هو أوروبا. فقد أصبح قانون الذكاء الاصطناعي للاتحاد الأوروبي قانونًا في أغسطس 2024. ووصفت المفوضية الأوروبية الإطار بأنه يستند إلى "حقوق الإنسان والقيم الأساسية" ويهدف إلى أن يكون بمثابة الأساس لتطوير "نظام بيئي للذكاء الاصطناعي يعود بالنفع على الجميع". ويذهب القانون إلى حد تقسيم المخاطر إلى أربع فئات مميزة ويغطي كل حالة استخدام للذكاء الاصطناعي من مرشحات البريد العشوائي "ذات المخاطر الدنيا" إلى روبوتات الدردشة "ذات المخاطر المحددة للشفافية" إلى "المخاطر غير المقبولة" لنماذج التسجيل الاجتماعي المثيرة للجدل، والتي أصبحت محظورة الآن.

إن المخاطر لا يمكن أن تكون أعلى من ذلك. وبدون معالجة مشكلة الصندوق الأسود، قد لا تكون الذكاء الاصطناعي مفيدة كما كنا نأمل فحسب؛ بل قد ينتهي به الأمر إلى إلحاق ضرر صاف بالمجتمع. إن حكومات دول مجلس التعاون الخليجي تتعامل بالفعل مع الذكاء الاصطناعي من خلال عدسة المخاطر، ولكن المنظمات الفردية يمكنها أن تقوم بدورها من خلال الالتزام بثلاثة مبادئ أساسية.

1. شفافية البيانات: ينبغي لسلامة البيانات أن تأخذ في الاعتبار حقيقة مفادها أن المدخلات الأولية قد تكون غير كاملة، ولكن تنظيف البيانات يمكن أن يؤدي إلى نتائج أكثر إيجابية. وسوف تشكل الحوكمة القائمة على الشفافية أهمية بالغة في القطاعات الخاضعة للتنظيم الصارم، مع تسجيل كل معاملة ووضع علامة عليها وإبرازها.

2. تقسيم عمل الذكاء الاصطناعي: يمكن تحقيق الحوكمة والشفافية بشكل أفضل إذا تم تكليف وكلاء الذكاء الاصطناعي بمهام أصغر يتم دمجها من خلال التنسيق لتقديم رؤى أو أتمتة العمليات. وبإضافة الإشراف البشري، سيساعد هذا النهج في القضاء على الصندوق الأسود.

3. التوسع الديناميكي: يمكن تسريع العمليات من خلال تنفيذ قنوات متعددة لتحريك المهام المعقدة والتي تتطلب موارد كثيرة عبر سير العمل بكفاءة أكبر.

الثقة الإلكترونية

إن الثقة قد تكون أساسية لاقتصاداتنا، ولكن هذا لا يعني أننا يجب أن نثق تلقائيا في شيء ما لمجرد أنه السبيل الوحيد لإطلاق مشروعنا المفضل. ليس من المقبول فحسب، بل إنه أمر بالغ الأهمية أن نطالب الذكاء الاصطناعي بكسب ثقتنا وأن نترك عجلات التدريب وبطاقات التقارير في مكانها حتى بعد أن فعل ذلك. إن رعايتنا الصحية وسلامتنا وحساباتنا المصرفية وأمننا الوطني على المحك. لذا، فلنبدأ في فتح الصناديق السوداء للذكاء الاصطناعي أينما وجدناها.

الكاتب هو نائب الرئيس الأول العالمي ورئيس قسم الذكاء الاصطناعي في Endava.

Khaleej Times - Arabic Edition
www.khaleejtimes.com