الدكتور محمود منصور خبير تكنولوجيا المعلومات
في ظل التسارع الكبير في تطور تطبيقات واستخدامات الذكاء الاصطناعي، تزداد أسئلة المختصون حول كيفية الثقة في الأنظمة الرقمية التي تصدر قرارات تؤثر في مجالات عدة من حياتنا اليومية، من بين هذه الأسئلة: كيف يمكن فهم الطريقة التي تصل بها الخوارزميات إلى نتائجها؟ كيف يمكن التأكد من العدالة داخل هذه القرارات؟ هذه الإشكالات دفعت باحثين في جامعات كبرى إلى طرح أفكار جديدة تساعد على توضيح العلاقة بين الإنسان والأنظمة الرقمية، مع التركيز على الشفافية في طريقة إنتاج النتائج.
لفت نظري ما نشرته منصة كلية الهندسة بجامعة «ستانفورد» الأمريكية، بعنوان «مستقبل تقنيات الشبكات»، يقدم خلاله البروفيسور «كيث وينستين» فكرة محورية تحمل اسم «الحقيقة الحسابية»، أي إمكانية إثبات صحة النتائج التي تنتجها الأنظمة الرقمية عبر تتبع كامل للخطوات الحسابية التي أدت إليها.
تقوم فكرة «وينستين» على ربط كل نتيجة داخل النظام بسجل واضح يوضح البيانات المستخدمة، والخوارزمية التي تمت المعالجة بها، والبيئة التي جرت فيها العملية، بهذا الأسلوب تصبح النتيجة قابلة للفحص والتحقق بدل أن تبقى مجرد مخرج نهائي غير واضح المصدر أو طريقة الوصول إليه.
يشير مفهوم «الحقيقة الحسابية» إلى فكرة القدرة على تتبع أصل أي نتيجة رقمية داخل النظام، وهو ما يُعرف أيضاً بمصطلح «الأصل أو المصدر»، ما يعني أن كل قرار أو مخرج داخل النظام يمكن ربطه بسلسلة واضحة من البيانات والخطوات الحسابية التي أدت إليه، علما بأن وجود هذا النوع من التوثيق يسمح بفهم الطريقة التي تعمل بها الخوارزميات، ويساعد في تحليل النتائج عند الحاجة، سواء بهدف التحقق أو التحسين أو المراجعة.
في الأنظمة الحالية، يتم تبادل البيانات بين مكونات متعددة، لكن غالباً لا يتم حفظ تفاصيل دقيقة عن كيفية إنتاج النتائج النهائية، وهنا تظهر أهمية فكرة «الأصل أو المصدر»، حيث يتم تسجيل البيانات المستخدمة والخطوات التي مرت بها داخل العملية الحسابية. التسجيل يمنح لكل نتيجة ملفاً يوضح أصلها والظروف التي ساهمت في تكوينها، مما يساعد على بناء فهم أوضح لكيفية عمل الأنظمة المعتمدة على الذكاء الاصطناعي.
يمكن تبسيط الفكرة من خلال تصور ما يشبه «العلامة المائية الرقمية» التي ترافق كل نتيجة داخل النظام. هذه العلامة لا تظهر للمستخدم بشكل مباشر، لكنها تحفظ رابطاً بين النتيجة وطريقة إنتاجها والبيانات التي أدت إليها، بهذا الشكل يصبح من الممكن العودة إلى أصل أي قرار رقمي عند الحاجة، وهو ما يفتح المجال أمام استخدامات أوسع في مجالات تحتاج إلى دقة عالية مثل التحليل الطبي والأنظمة المالية وإدارة البيانات المعقدة، مع تعزيز وضوح عمل الخوارزميات.
مفهوم «الموثوقية والاعتمادية» أحد المحاور الأساسية لفهم جودة القرارات الرقمية المترتبة على تطور أنظمة الذكاء الاصطناعي. التوجه يسعى إلى نقل الأنظمة من كونها غير واضحة في طريقة عملها إلى أنظمة يمكن فحص خطواتها ومراجعتها بدقة.
الفكرة الأساسية هدفها تقليل الغموض حول كيفية إنتاج النتائج، بحيث يصبح من الممكن التحقق من كل مرحلة حسابية داخل النظام بدل الاعتماد فقط على النتيجة النهائية، وبالتالي، فالموثوقية في هذا السياق تعني الانتقال من الاعتماد على وعود الجهات المطورة إلى الوصول لما يمكن وصفه بـ«اليقين الرياضي» بأن النتيجة صحيحة ضمن شروط محددة.
أي أن صحة المخرجات لا تعتمد على الثقة العامة في النظام، بل على إمكانية إثباتها عبر خطوات حسابية واضحة يمكن مراجعتها، هذا النوع من التفكير يغير طريقة التعامل مع الذكاء الاصطناعي، خاصة في التطبيقات التي تتطلب دقة عالية مثل تحليل البيانات أو اتخاذ قرارات حساسة.
أما الاعتمادية فتركز على ثبات النتائج وقابليتها للتكرار عند إعادة تنفيذ نفس العملية تحت الظروف نفسها، هذا الجانب مهم جداً في مجالات مثل التشخيص الطبي أو الإدارة المالية، حيث يجب أن تكون النتائج متسقة وغير متغيرة دون سبب منطقي. وجود نظام يوضح خطوات الإنتاج الحسابي يسمح بإعادة اختبار العملية نفسها للتأكد من أنها تعطي نفس النتائج عند تكرارها، مما يعزز الثقة في استخدامها.
في المقابل، لا يمكن الحديث عن «الحقيقة الحسابية» دون التطرق إلى أركان الأمان الرقمي، وعلى رأسها جودة البيانات. مفهوم يوضح أن صحة النتائج تعتمد بشكل مباشر على جودة المدخلات، حتى لو كانت العمليات الحسابية دقيقة، فإن وجود بيانات غير صحيحة أو متحيزة يؤدي إلى نتائج غير موثوقة. لذلك يتم التركيز على تتبع مصدر البيانات والتحقق من نقائها قبل استخدامها داخل النظام.
من جهة أخرى، تأتي الشفافية وقابلية التفسير كعنصر أساسي في بناء الثقة، الفكرة تقوم على جعل الخوارزميات قادرة على شرح أسباب قراراتها بطريقة يمكن فهمها ومراجعتها، عند تطبيق مفهوم «تسمية الحسابات»، يصبح بالإمكان تتبع السبب الذي أدى إلى أي قرار داخل النظام، مما يساعد المختصين على تحليل المنطق الداخلي للنموذج وفهم طريقة وصوله إلى النتائج دون غموض.
تظهر قضية الخصوصية والمخاوف الأخلاقية كعنصر لا يمكن تجاهله، فمع زيادة القدرة على تتبع العمليات والبيانات، يصبح من الضروري وضع حدود واضحة لكيفية استخدام المعلومات وحمايتها، الهدف هنا هو تحقيق توازن بين الشفافية المطلوبة لفهم الأنظمة، وبين حماية بيانات الأفراد ومنع إساءة استخدامها. هذا التوازن يمثل أحد التحديات الأساسية في تصميم أنظمة ذكاء اصطناعي موثوقة وآمنة في الوقت نفسه.
في ظل تطور أنظمة الذكاء الاصطناعي، يظهر تحدٍ مركزي يتمثل في كيفية تحقيق الشفافية داخل الأنظمة الرقمية دون المساس بخصوصية الأفراد، فكلما زادت القدرة على تتبع العمليات الحسابية وشرحها، زادت الحاجة إلى حماية البيانات الشخصية من الكشف أو الاستغلال، هنا يظهر اتجاه تقني يجمع بين الوضوح وحماية المعلومات، بحيث يمكن فهم صحة النتائج دون الاطلاع على البيانات الحساسة نفسها.
من بين الحلول المطروحة ما يعرف بـ«بروتوكولات المعرفة الصفرية»، كتقنيات تسمح بإثبات صحة عملية حسابية دون الحاجة إلى كشف البيانات التي بُنيت عليها. هذا يعني أن النظام يمكنه التأكد من صحة النتيجة دون الاطلاع على التفاصيل الخاصة بالمستخدم، بهذه الطريقة يتم تحقيق توازن دقيق بين الشفافية المطلوبة لفهم الأنظمة، وبين الحفاظ على الحرية الفردية ومنع تسرب المعلومات الشخصية.
عالميًا، ظهرت خلال الأعوام القليلة السابقة 3 نماذج قانونية رئيسية لتنظيم الذكاء الاصطناعي، كل منها يعكس فلسفة مختلفة في التعامل مع التقنية، النماذج تتقاطع مع فكرة وجود أدلة رقمية يمكن التحقق منها داخل الأنظمة، وهو ما يتوافق مع الطرح القائم على توثيق العمليات الحسابية مثل مفهوم «الحقيقة الحسابية» الذي يرتبط بتتبع مصدر القرار داخل الأنظمة الرقمية.
في الاتحاد الأوروبي، يتم تطبيق قانون الذكاء الاصطناعي للاتحاد الأوروبي (EU AI Act) الذي يُعد أول إطار قانوني شامل في هذا المجال، يقوم هذا النموذج على مقاربة حقوقية واضحة، حيث يتم تصنيف أنظمة الذكاء الاصطناعي حسب درجة الخطورة، الأنظمة عالية المخاطر تخضع لرقابة صارمة من حيث الشفافية وإمكانية التدقيق، كما يتم منع استخدام تقنيات قد تؤدي إلى التمييز أو ما يعرف بالتقييم الاجتماعي، وذلك بهدف حماية حقوق الأفراد وتقليل الانحياز في القرارات.
أما في الولايات المتحدة، فهناك مقاربة مختلفة تقوم على دعم الابتكار والتنافسية، يعتمد النظام على الأوامر التنفيذية والاتفاقات الطوعية مع الشركات الكبرى بدل القوانين الصارمة الموحدة، التركيز الأساسي هنا ينصب على تسريع التطوير التقني مع وضع اختبارات سلامة للتأكد من أن الأنظمة لا تتصرف بطريقة غير متوقعة. الهدف هو تحقيق توازن بين دعم النمو التقني وضمان مستوى مقبول من الأمان في الاستخدامات المختلفة.
في الصين، تعتمد «المقاربة السيادية والرقابية» على بناء إطار قانوني مفصل لكل نوع من تقنيات الذكاء الاصطناعي، يشمل ذلك تنظيم أدوات مثل التزييف العميق وأنظمة التوصية وخوارزميات توزيع المحتوى. الهدف الأساسي هو ضبط طريقة إنتاج المحتوى الرقمي والتأكد من خضوعه لرقابة واضحة قبل وصوله إلى المستخدمين، مع تحديد مسؤوليات الشركات المطورة بشكل مباشر ودقيق.
تركز الفلسفة التنظيمية في هذا النموذج على حماية أمن المحتوى والحفاظ على الاستقرار الاجتماعي. لذلك يتم إلزام الشركات بوضع علامات توضيحية على المحتوى الذي يتم إنتاجه عبر الذكاء الاصطناعي، بحيث يمكن التمييز بين المحتوى البشري والآلي، كما يتم فرض مراجعة دورية للخوارزميات المستخدمة لضمان توافقها مع القوانين المحلية والمعايير الوطنية، بما يحد من انتشار المعلومات المضللة أو الاستخدام غير المنضبط للتقنيات الحديثة.
عند مقارنة هذا النموذج مع المقاربات الأخرى مثل النموذج الأوروبي أو الأمريكي، يظهر اختلاف في طريقة التعامل مع المخاطر الرقمية. فبينما يركز الاتحاد الأوروبي على الحقوق الفردية وتقسيم المخاطر، وتركز الولايات المتحدة على دعم الابتكار مع اختبارات سلامة مرنة، تتجه الصين نحو تنظيم أكثر مركزية يعتمد على الرقابة المباشرة وتوحيد معايير المحتوى الرقمي، هذا التباين يعكس اختلاف الأولويات بين حماية المجتمع، ودعم الابتكار، وحماية الحقوق الفردية.
تظهر أهمية مفهوم «الحقيقة الحسابية» كعنصر يمكن أن يربط بين هذه النماذج المختلفة. فوجود توثيق دقيق للعمليات الحسابية داخل الأنظمة الرقمية يسمح بإنشاء أدلة قابلة للفحص حول كيفية إنتاج القرارات أو المحتوى. هذا النوع من التوثيق يساعد في تقليل الغموض حول عمل الخوارزميات، ويمنح الجهات التنظيمية قدرة أكبر على مراجعة النتائج بشكل علمي ومنظم.
فكرة «البصمة الحسابية» أو تتبع مصدر القرار الرقمي تُعد أداة يمكن أن تدعم السياسات التنظيمية في مختلف الدول. فهي توفر إمكانية معرفة البيانات والخطوات التي أدت إلى أي نتيجة داخل النظام، مما يسهل عملية التدقيق القانوني والفني. هذا النوع من الشفافية التقنية قد يصبح جزءاً أساسياً من البنية التشريعية المستقبلية للذكاء الاصطناعي، خاصة في المجالات التي تتطلب مستوى عالياً من الدقة والمسئولية.
أرى أن رؤية جامعة «ستانفورد» حول «الحقيقة الحسابية» ليست مجرد ترف تقني، بل هي حجر الزاوية الذي ستبنى عليه قوانين المستقبل، بدون «بصمة حسابية» موثقة، ستظل جهود مكافحة التحيز وحماية الخصوصية مجرد شعارات، وسنظل عاجزين عن بناء علاقة ثقة حقيقية مع الذكاء الاصطناعي الذي بدأ يعيد تشكيل عالمنا.
في هذا الإطار، أولت الدولة المصرية اهتماماً كبيراً ببناء بيئة تنظيمية وتقنية تضمن الاستخدام الآمن والمسئول للذكاء الاصطناعي، بما يتوافق مع المعايير الدولية المرتبطة بالشفافية، وجودة البيانات، والحد من التحيز داخل الأنظمة الرقمية.
جاء ذلك عبر إطلاق الإصدار الثاني من الاستراتيجية الوطنية للذكاء الاصطناعي مطلع عام 2025، والتي تركز على إعداد الكوادر البشرية وتدريب آلاف الشباب والعاملين في مختلف القطاعات على تقنيات الذكاء الاصطناعي، بهدف تعزيز القدرة الوطنية على إدارة هذه الأنظمة بكفاءة ووعي.
تستهدف الاستراتيجية دعم التحول نحو اقتصاد قائم على المعرفة، مع توسيع استخدامات الذكاء الاصطناعي في قطاعات حيوية مثل الزراعة، والرعاية الصحية، وإدارة الموارد المائية، بما يسهم في رفع كفاءة الخدمات وتحسين عملية اتخاذ القرار اعتماداً على التحليل الرقمي للبيانات.
توجه يعكس إدراكاً متزايداً لأهمية التكنولوجيا الحديثة في دعم خطط التنمية المستدامة ورفع القدرة التنافسية للدولة في المجالات التقنية والمعرفية، لاسيما أن مصر تتميز بأنها أول دولة عربية وأفريقية تلتزم بمبادئ منظمة التعاون الاقتصادي والتنمية «OECD» الخاصة بالذكاء الاصطناعي المسئول.
تعاونت مصر مع منظمة «اليونسكو» في إعداد تقرير «تقييم الجاهزية الوطنية»، بما يساعد على تطوير أطر تنظيمية متوافقة مع المعايير الدولية الحديثة، ومنها القواعد المرتبطة بقانون الذكاء الاصطناعي الأوروبي، وتؤكد هذه الخطوات أن بناء الثقة في أنظمة الذكاء الاصطناعي لم يعد مرتبطاً فقط بالتطور التقني، بل أيضاً بوجود قواعد واضحة تضمن الشفافية، والمساءلة، وحماية حقوق الأفراد في العصر الرقمي.
اقرأ أيضاًخطوة جديدة بعيدا عن القوانين.. ميتا تحلل بنية العظام بالذكاء الاصطناعي لرصد حسابات القُصّر وحذفها
الذكاء الاصطناعي أبرز أدواته.. أبو العينين: نحن أمام صراع من نوع جديد لا يعترف بوطن









