استعرضت شركة بالو ألتو نتوركس اليوم، وعلى لسان أناند أوسوال، نائب الرئيس الأول والمدير العام لأمن الشبكات لدى بالو ألتو نتوركس أبرز المخاطر الخفيّة لاستخدام الذكاء الاصطناعي في المؤسسات.
ويمكن لاعتماد تطبيقات الذكاء الاصطناعي التوليدي غير المرخصة أن يسفر عن مجموعة واسعة من المشاكل المتعلقة بالأمن الإلكتروني تتراوح من تسريب البيانات، وصولاً إلى مخاطر البرمجيات الخبيثة. ويعود السبب في ذلك إلى عدم معرفة المؤسسات لمن يقوم باستخدام تلك التطبيقات، وما هي المعلومات الحساسة التي تصل إليها، وما الذي يحدث لتلك المعلومات بعد مشاركتها مع التطبيقات. وبالنظر إلى حقيقة أن التطبيقات ليست جميعها مصممة لتتناسب مع معايير الأمن الإلكتروني للمؤسسة، فقد تشتمل تلك التطبيقات على روابط خبيثة، وأن تكون بمثابة مدخل للجهات التخريبية لاختراق شبكات المؤسسات والوصول إلى أنظمة هذه المؤسسات وبياناتها. ويمكن لجميع هذه الأمور أن تؤدي إلى انتهاك المتطلبات التنظيمية للامتثال، والكشف عن البيانات الحساسة، وسرقة الملكية الفكرية، وتعطيل العمليات، والتسبب بخسائر مالية. وعلى الرغم من إمكانية توفير هذه التطبيقات لزيادات ملموسة في الإنتاجية، إلا أن هناك مخاطر وتبعات جدية مرتبطة باعتمادها بطريقة غير آمنة.
ومن الأمثلة على هذه المخاطر:
- فرق التسويق التي تستخدم تطبيقات غير مرخصة قائمة على الذكاء الاصطناعي من أجل إنشاء صور المجلات ومحتوى الفيديو. إذ قام فريق التسويق بتحميل معلومات حساسة على التطبيق، ومن ثم تسربت التفاصيل الحساسة للمنتجات الحساسة، فسيكون ذلك أمراً سيئاً.
- مدراء المشاريع الذين يستخدمون تطبيقات تدوين الملاحظات المعززة بالذكاء الاصطناعي من أجل تفريغ نصوص الاجتماعات وتقديم موجزات مفيدة. إذا اشتملت نصوص الاجتماعات على مناقشات سرية حول النتائج المالية للربع الحالي وذلك قبل الإعلان عن النتائج الفصلية فسيتسبب ذلك بكارثة.
- المطورون الذين يستخدمون الروبوتات الافتراضية المساعدة وخدمات تحسين الترميز من أجل تسريع عملية تقديم المنتجات. حال اشتمل أحد الرموز المقدمة من أحد التطبيقات غير الآمنة على نصوص برمجية خبيثة فسيتسببون بكارثة.
يشكل ما سبق بعض الأمثلة القليلة حول كيف يمكن للاستخدام حسن النية للذكاء الاصطناعي التوليدي أن يؤدي إلى زيادة المخاطر بطريقة غير مقصودة. ومن جهة أخرى، فإن حجب استخدام هذه التقنيات قد يحد من قدرة المؤسسات على تعزيز ميزاتها التنافسية، لذلك فإن اتخاذ مثل هذه الإجراء ليس هو الحل أيضاً. ولذلك يمكن للشركات، بل ويجب عليها، أن تأخذ وقتها في دراسة كيفية تمكين الموظفين من استخدام هذه التطبيقات بشكل آمن، وفيما يلي بعض الاعتبارات التي يمكن أخذها بالحسبان:
- الاطلاع على جميع الجوانب المتعلقة بتدفق البيانات: لا يمكن حماية ما نجهله. ومن أكبر التحديات التي تواجه فرق تكنولوجيا المعلومات بخصوص التطبيقات غير المرخصة هو صعوبة الاستجابة لحوادث الأمن الإلكتروني على الفور، ما يزيد من إمكانية وقوع خروقات الأمن الإلكتروني. ولذلك، يتوجب على كل مؤسسة مراقبة استخدام تطبيقات الذكاء الاصطناعي التوليدي المقدمة من أطراف خارجية، وفهم المخاطر المحددة المرتبطة بكل أداة منها. واستناداً إلى فهمها للأدوات التي يتم استخدامها، تحتاج فرق تكنولوجيا المعلومات إلى الاطلاع على جميع الجوانب المتعلقة بالبيانات المتدفقة داخل المؤسسات وخارجها، الأمر الذي يساعد في كشف الخروقات الأمنية وضبطها ومعالجتها بسرعة.
- التحكم: يجب أن تتمتع فرق تكنولوجيا المعلومات بالقدرة على اتخاذ قرارات سديدة بخصوص حجب أو السماح أو الحد من إمكانية الوصول إلى تطبيقات الذكاء الاصطناعي للأطراف الخارجية سواءً كان ذلك على مستوى التطبيقات أو من خلال استخدام ضوابط قائمة على المخاطر أو مصنفة وفقاً لها. على سبيل المثال، قد تقرر المؤسسة حجب وصول كامل الموظفين إلى أدوات تحسين الترميز، والسماح فقط للمطورين بالدخول إلى أدوات تحسين الترميز المقدمة من أطراف خارجية وذلك بعد تأكد فرق الأمن الإلكتروني من سلامتها والسماح باستخدامها داخلياً.
- الأمن الإلكتروني: هل تقوم فرق العمل بمشاركة معلومات حساسة مع التطبيقات؟ يجب على فرق تكنولوجيا المعلومات ضمان عدم تسرب المعلومات الحساسة وذلك لحماية بيانات المؤسسة من سوء الاستخدام والسرقة. وتزيد أهمية هذا الأمر في حال كانت المؤسسة خاضعة للتنظيم أو لقوانين سيادة البيانات. ويعني ذلك من الناحية العملية مراقبة البيانات التي يتم إرسالها إلى تطبيقات الذكاء الاصطناعي التوليدي، ومن ثم تطبيق الضوابط الفنية لضمان عدم إرسال البيانات الحساسة أو المحمية مثل معلومات التعريف الشخصية أو بيانات الملكية الفكرية، إلى هذه التطبيقات.
- الوقاية من التهديدات: قد تكمن مخاطر استغلال نقاط الضعف تحت غطاء أدوات الذكاء الاصطناعي التوليدي التي تستخدمها فرق العمل. وبالنظر إلى المعدل السريع جداً الذي تم عبره تطوير العديد من هذه الأدوات وطرحها في السوق، فقد لا يمكن معرفة ما إذا كان النموذج المستخدم قد تم إنشاؤه باستخدام نماذج معيبة، أو ما إذا تم تدريبه وفقاً لبيانات غير صحيحة أو خبيثة، أو ما إذا كان يشتمل على مجموعة واسعة من نقاط الضعف المرتبطة بالذكاء الاصطناعي. وتعد مراقبة البيانات المتدفقة من هذه التطبيقات إلى مؤسستكم والتحكم بها من أفضل الممارسات التي يوصى بها في هذا السياق والتي تتيح البحث عن أي نشاط ضار أو مشبوه إن وجد.