سوف تجد لدنيا إجابات للكثير من الأسئلة

5 ثغرات ذكاء اصطناعي يمكن للقراصنة استغلالها

AD

أصبحت تقنية الذكاء الاصطناعي جزءًا لا يتجزأ من حياة الإنسان هذه الأيام ، وقد جعلت قدراتها الجيدة والعملية حياة الإنسان أسهل من ذي قبل. لا يتوقف تطوير ونمو أدوات الذكاء الاصطناعي على الإطلاق بل يتوسع بشكل كبير كل عام. على الرغم من أن هذا النمو كان مفيدًا للبشر في جوانب مختلفة . فإن الذكاء الاصطناعي ، مثل أي تقنية أخرى . ينطوي على مخاطر أن بعض الأشخاص الباحثين عن الربح يمكنهم استخدام هذه الأدوات لتحقيق أفكارهم الشريرة. في هذه المقالة ، نعتزم أن نقدم لك 5 ثغرات ذكاء اصطناعي يمكن للقراصنة استغلالها.

استخدام الذكاء الاصطناعي للغة الطبيعية في هجمات التصيد الاحتيالي

كانت القدرة على فهم اللغة البشرية وإنتاجها أحد الأهداف الرئيسية لأبحاث الذكاء الاصطناعي منذ أيامها الأولى. تعلم هذه التكنولوجيا الآلات القدرة على الفهم . وإنتاج الكلمات والنصوص بنفس طريقة البشر. في عالم اليوم . لدينا العديد من الأدوات المتاحة لهذه التكنولوجيا ، بما في ذلك أدوات توليد الصوت الاصطناعي ، وروبوتات المحادثة القادرة ، ومولدات النصوص بلغات مختلفة . والعديد من التقنيات المتعلقة بالذكاء الاصطناعي. تتمتع أدوات الذكاء الاصطناعي هذه بالقدرة على معالجة اللغة البشرية في شكل نص أو بيانات صوتية وفهم معانيها الصحيح بشكل كامل مع نية ومشاعر المتحدث أو الكاتب.

تعتبر هذه العبارات خيارًا رائعًا لهجمات التصيد الاحتيالي. إذا لم تكن على دراية بهجمات التصيد الاحتيالي ، فيجب أن نذكر أن هذه الأنواع من الهجمات تستند إلى الهندسة الاجتماعية التي يخدع فيها المستفيدون أو المتسللون المستخدمين للحصول على معلومات حساسة وهامة مثل كلمات المرور ومعلومات البطاقة المصرفية والمعلومات الشخصية الحساسة وغير ذلك. يحصل باستخدام هذه التقنيات الجديدة . يمكن للمتسللين ارتكاب عمليات احتيال جماعية عبر البريد الإلكتروني أو المكالمات الهاتفية أو تطبيقات المراسلة أو في أي مكان يتواصل فيه البشر مع بعضهم البعض من خلال نظام.

هناك العديد من الطرق لتنفيذ هجمات التصيد الاحتيالي ، بما في ذلك مواقع الويب المزيفة . والتصيد الاحتيالي عن طريق تغيير الروابط ، والمكالمات الهاتفية المزيفة .والبرمجيات الخبيثة للتصيد الاحتيالي ، وإرسال رسائل مزيفة وغيرها. في بعض الأحيان ، عن طريق تغيير العنوان في شريط العنوان في المتصفح ، يحاول المتسللون نقل المستخدم إلى موقع ويب مزيف مشابه جدًا للموقع الأصلي . ومن خلال إدخال معلومات مهمة مثل اسم المستخدم وكلمة المرور من قبل المستخدم ، يمكنهم بسهولة الوصول إلى جميع المعلومات الخاصة به.

على عكس التصيد العادي كما نعرفه . هناك نوع آخر من التصيد الاحتيالي حيث تتم محاولات ضد أشخاص محددين لديهم معلومات عنهم على وجه التحديد لتطبيع عملية الاحتيال.

Deepfake الهندسة الاجتماعية

ثغرات ذكاء اصطناعي
ثغرات ذكاء اصطناعي

الهندسة الاجتماعية هي نوع من القرصنة التي تستهدف نقاط الضعف في سيكولوجية السلوك البشري لتجاوز إجراءات الأمان التقنية. بمعنى آخر ، تقوم الهندسة الاجتماعية في الواقع بتنفيذ سلسلة من الإجراءات على شخص أو مجموعة من الأشخاص ، بهدف إقناعهم بالقيام بأشياء من أجل توجيه المهاجم إلى أهداف مثل الحصول على سلسلة من المعلومات المحددة ، والوصول إلى المعلومات ، التلاعب بالنظام أو الشبكة المستهدفة. وهي محددة سلفًا للقيام بمهمة ما. على سبيل المثال ، قد يتصل أحد المتطفلين بسكرتير شركة مهمة ، وأثناء تقديم نفسه كعامل تنظيف . اسأله عن مكان التخلص من نفايات الشركة الورقية. ينتقل المهاجم بعد ذلك إلى هذا الموقع للبحث عن المستندات المهملة أو الأدلة الأخرى التي يمكنهم استخدامها لإنشاء ثغرة.

تطورت أنظمة التعلم العميق التي يمكنها محاكاة وجوه المستخدمين وأصواتهم بأكبر قدر ممكن (المعروفة باسم التزييف العميق) إلى درجة يمكن استخدامها في أي وقت وفي أي مكان. يستخدم المتسللون التعلم العميق والتعلم الآلي وتقنيات الذكاء الاصطناعي لإنشاء صور ومقاطع فيديو وأصوات حقيقية بشكل مقنع. مع مرور الوقت وتطور التكنولوجيا . سيكون التمييز بين المحتوى المزيف والمحتوى الحقيقي أكثر صعوبة . ولهذا السبب يصبح العديد من المستخدمين ضحايا للهجمات الإلكترونية.

تجدر الإشارة إلى أن هناك خدمات يمكنك من خلالها إرسال عينات من صوتك ثم قراءة نص إلى تلك الخدمة لإجراء محاكاة دقيقة لصوتك. من حيث المبدأ ، يمكن استخدام هذه التكنولوجيا لمحاكاة صوت أي شخص. ثم الشيء الوحيد الذي عليك فعله هو التواصل مع الأشخاص الذين تريدهم من خلال مكالمة هاتفية أو مكالمة فيديو وتقديم طلبات مختلفة نيابة عن الشخص الذي زورت هويته. لسوء الحظ . يتم خداع المستخدمين العاديين بسهولة بهذه الطريقة. وفي الوقت نفسه ، هناك خدمات لا تسمح للقراصنة بإساءة استخدام أصوات المستخدمين بهذه السهولة.

مثال

على سبيل المثال ، Podcastle Revoice هي إحدى هذه الخدمات التي تدعي إنشاء نسخة رقمية من صوتك بناءً على عينات صوتية ترسلها. أصدرت الخدمة بيانًا بشأن مستوى القلق الشديد من أن المستخدمين يسيئون استخدام الأصوات المولدة ، قائلة إن لديها تعليمات واضحة حول كيفية إنشاء الأصوات . بالإضافة إلى فحوصات لمنع إساءة الاستخدام المحتملة من قبل فريقها. في هذا الصدد ، يجب على المستخدم قراءة وتسجيل 70 جملة منفصلة يتم تحديدها على وجه التحديد من قبل مهندسي هذا الفريق. هذا يعني أنه لا يمكن للمستخدم ببساطة استخدام الصوت المسجل لشخص آخر في هذا السياق. ثم يتم فحص هذه الجمل المسجلة السبعين يدويًا من قبل فريق هذه الخدمة للتأكد من صحة صوت الشخص ومن ثم تتم معالجة الأصوات من خلال أدوات تقنية الذكاء الاصطناعي الخاصة بهم.

الكشف التلقائي عن الثغرات الأمنية بواسطة الذكاء الاصطناعي

ثغرات ذكاء اصطناعي
ثغرات ذكاء اصطناعي

عادةً ما يستغرق المستخدمون ساعات للبحث في الشفرة للعثور على الثغرات الأمنية أو إصلاحها أو استغلالها. لكن أدوات الذكاء الاصطناعي بسّطت القيام بهذه المهام. على سبيل المثال ، يمكن لبعض نماذج التعلم الآلي مثل ChatGPT كتابة التعليمات البرمجية واكتشاف الثغرات الأمنية في الرمز المرسل. أيضًا ، بعض أدوات الذكاء الاصطناعي قادرة على تقديم اقتراحات جيدة من خلال فحص هيكل الكود . والذي لا يحسن الإنتاجية الإجمالية فحسب . بل يوفر الوقت أيضًا. في حين أن هذا له فوائده . فإنه يخلق أيضًا إمكانية أن يكون الذكاء الاصطناعي قادرًا على كتابة برامج ضارة في وقت أقرب للثغرات الأمنية التي يجدها ، مما يسهل على المتسللين استغلالها.

 

البرامج الضارة التي تتعلم من خلال التعلم الآلي

تكمن القوة الرئيسية للتعلم الآلي في كيفية أخذ كميات هائلة من البيانات واستخراج القواعد والأفكار المفيدة منها. من المعقول أن نتوقع أن البرامج الضارة المستقبلية ستستخدم هذا المفهوم العام للتكيف بسرعة مع الإجراءات المضادة. قد تخلق هذه المشكلة موقفًا تصبح فيه أنظمة البرامج الضارة وأنظمة مكافحة البرامج الضارة أنظمة تعلم آليًا تتسم بدرجة عالية من التعقيد ولن يكون من السهل التعامل معها.

 

 

 

شاهد ايضا”

آبل ضد سامسونج قتال الأعداء اللدودين

مراجعة الهاتف Samsung Galaxy M53

10 أجهزة كمبيوتر محمولة خفيفة وقوية لمن يتحرك كثيرًا

مراجعة الكمبيوتر المحمول HP Omen 16

لماذا سرعة Wi-Fi منخفضة على هاتفي؟

7 مشاكل في الهواتف القابلة للطي لم يتم حلها بعد

 

 

الذكاء الاصطناعي التوليدي لإنشاء بيانات مزيفة

ثغرات ذكاء اصطناعي
ثغرات ذكاء اصطناعي

يمكن لتقنيات الذكاء الاصطناعي الآن محاكاة الصور والفيديو والنصوص والصوت لأشخاص مختلفين ببساطة وفي أقصر وقت ممكن. وصلت هذه التقنيات إلى نقطة حيث لا يستطيع حتى الخبراء التعرف بسهولة على مزيفها . على الأقل للوهلة الأولى. هذا يعني أنه يجب أن تتوقع تدفقًا هائلاً من البيانات المزيفة على الإنترنت في المستقبل القريب. على سبيل المثال ، أصبح من السهل الآن اكتشاف ملفات تعريف الوسائط الاجتماعية المزيفة . لذلك ليس من الصعب اكتشاف عمليات احتيال سمك السلور أو الحملات الأخرى لنشر المعلومات الخاطئة إلى جمهور مطلع.

بالنسبة لأولئك المستخدمين الذين لا يعرفون . فإن عملية احتيال سمك السلور هي نوع من عمليات الاحتيال حيث يخفي الأشخاص هويتهم الحقيقية ويسعون إلى تحقيق أغراضهم الشائنة من خلال إنشاء شخصية وهمية على الإنترنت. قد تقضي هذه المجموعة من الأشخاص وقتًا طويلاً جدًا في بناء الثقة للمستخدمين وحتى الدخول في علاقة عاطفية معهم. ومع ذلك ، يمكن لأدوات تكنولوجيا الذكاء الاصطناعي الجديدة إنشاء ملفات تعريف مزيفة للأشخاص الذين لا يمكن تمييزهم عن ملفاتهم الشخصية الحقيقية ، وهذه مشكلة تحتاج إلى مزيد من الاهتمام للمستخدمين.

عادة ما تقدم هذه المجموعة من المتسللين أنفسهم للمستخدمين كأشخاص ذوي وجوه جميلة . ووضع مالي جيد للغاية ، وأشياء أخرى ، وكانوا على اتصال بهم على الشبكات الاجتماعية لبعض الوقت. حتى لا يشك المستخدمون بهم ، ينشئ هؤلاء الأشخاص سلسلة من الملفات الشخصية المزيفة باسم أصدقائهم أو أفراد عائلاتهم لجعل كل شيء يبدو طبيعيًا وحقيقيًا للغاية. ثم ، في الوقت المناسب ، يخدعونهم بحجج مختلفة.

كلمة أخيرة

 

على الرغم من أن أدوات تقنية الذكاء الاصطناعي تلعب دورًا مهمًا للغاية في حياة الناس اليوم . إلا أن هناك دائمًا سلسلة من الأشخاص الباحثين عن الربح الذين ينوون الاستفادة من تقدم التكنولوجيا لتحقيق رغباتهم الشريرة. ما يجعل هذا الجيل الجديد من تقنية الذكاء الاصطناعي مختلفًا هو مدى سرعة تجاوزه للقدرات البشرية للتعرف عليها. في هذا المقال . قدمنا ​​5 أدوات لتقنية الذكاء الاصطناعي يمكن للقراصنة استغلالها لإبلاغك قليلاً عن ذلك. نأمل أن تكون قد استمتعت بقراءة هذا المقال.

اترك رد