NG Solution Team
التكنولوجيا

هل تشكل الأكواد المولدة بالذكاء الاصطناعي تهديدًا أمنيًا في نحو نصف مهام التطوير؟

أصدرت شركة Veracode تقريرًا يسلط الضوء على مخاوف أمنية كبيرة تتعلق بالكود الذي يتم توليده بواسطة الذكاء الاصطناعي. وقد قامت الدراسة بفحص 80 مهمة برمجية عبر أكثر من 100 نموذج لغوي كبير، ووجدت أن الذكاء الاصطناعي يساهم في إدخال ثغرات أمنية في 45% من الحالات. وعلى الرغم من التقدم في تطوير البرمجيات بمساعدة الذكاء الاصطناعي، إلا أن التدابير الأمنية لم تواكب هذا التقدم، حيث تميل نماذج الذكاء الاصطناعي غالبًا إلى اختيار أساليب ترميز غير آمنة. يثير هذا الاتجاه القلق مع تزايد اعتماد المطورين على الذكاء الاصطناعي دون تحديد متطلبات أمنية واضحة، مما قد يترك القرارات الحاسمة لأنظمة الذكاء الاصطناعي.

كما تساعد أدوات الذكاء الاصطناعي المهاجمين على استغلال الثغرات بشكل أكثر كفاءة، مما يزيد من تعقيد وسرعة الهجمات. وأظهرت أبحاث Veracode أن لغة Java، من بين لغات أخرى، تمثل الخطر الأكبر، حيث يفشل الكود الذي يتم توليده بواسطة الذكاء الاصطناعي غالبًا في معالجة الثغرات مثل البرمجة عبر المواقع وحقن السجلات. ولا تحقق النماذج الكبيرة من الذكاء الاصطناعي أداءً أفضل بكثير من النماذج الأصغر من حيث الأمان، مما يشير إلى وجود مشكلة نظامية.

ولتخفيف هذه المخاطر، توصي Veracode بدمج أدوات مدعومة بالذكاء الاصطناعي في سير عمل التطوير لمعالجة العيوب الأمنية في الوقت الفعلي. وتحث المؤسسات على تبني استراتيجيات شاملة لإدارة المخاطر، بما في ذلك التحليل الثابت وتحليل تركيب البرمجيات، لمنع وصول الثغرات إلى مرحلة الإنتاج. ومع استمرار تطور التطوير المدفوع بالذكاء الاصطناعي، من الضروري أن يظل الأمان محور التركيز الأساسي لمنع تراكم الديون الأمنية.

Related posts

هل قامت مايكروسوفت بإصلاح 67 ثغرة، بما في ذلك ثغرة خطيرة في WEBDAV؟

أحمد منصور

ما هي خيارات التخزين والألوان الجديدة لجهاز جالاكسي S25 FE؟

خليدي أمينة

كيف حصلت أسيفا على 4 ملايين دولار في جولة تمويل أولية فائضة؟

يوسف حداد

Leave a Comment

This website uses cookies to improve your experience. We assume you agree, but you can opt out if you wish. Accept More Info

Privacy & Cookies Policy