الكشف عن تفاصيل مفاوضات سورية "اسرائيلية" سرية: تسليم "شبعا" مقابل التنازل عن الجولان حكومة الاحتلال تناقش الأحد "إعلان السيادة على الضفة" الكرك.. مديرية المالية بلا مدير منذ عام مندوبا عن الملك وولي العهد. العيسوي يعزي بني عواد والجوارنة والديري وخير والعبابنة مسؤول أمني إسرائيلي: مرحلة انفصال السويداء عن سوريا "بدأت" لبنان: توقيف أردنية حاولت تهريب 15 كغم من المخدرات داخل علبة حلويات لا أدوية في مشافي وصيدليات غزة والمرضى يواجهون مصيراً قاتلاً وزيران "اسرائيليان": الضفة الغربية "أرض يهودية" ولن تقام عليها دولة فلسطينية تنويه هام من "أمن الجسور" للمسافرين عبر جسر الملك حسين طلقة طائشة من مسدس أب تودي بحياة ولده في مادبا مصادر لبنانية: "حزب الله" يجهّز خطة لتفجير الأوضاع في بيروت رفضًا لنزع سلاحه مقتل 3 وإصابة 30 بإطلاق نار داخل مدرسة في ولاية مينيابوليس الأميركية العيسوي: الأردن بقيادة الملك صخرة صمود وراية ثابتة للقضايا الوطنية والقومية مدير المكتبة الوطنية يفتتح فعاليات ثقافية في منتدى الشوبك (فيديو) نتنياهو: الحرب في غزة لتغيير الشرق الأوسط.. ومعركتنا عمرها 3500 عام!
القسم : علوم وتكنولوجيا
نبض تيليجرام فيس بوك
نشر بتاريخ : 09/07/2025 توقيت عمان - القدس 9:13:09 PM
دراسة تحذر: قنبلة معلومات طبية كاذبة يفجرها الذكاء الاصطناعي
دراسة تحذر: قنبلة معلومات طبية كاذبة يفجرها الذكاء الاصطناعي

أكدت دراسة جديدة أن الذكاء الاصطناعي عُرضة لإساءة الاستخدام لنشر معلومات مضللة خطيرة حول الصحة، وأنها تنتشر أسرع بست مرات من الحقيقة، وأن أنظمة الذكاء الاصطناعي يمكن أن تعزز هذا الاتجاه.

أجرى الباحثون تجارب على خمسة نماذج رائدة للذكاء الاصطناعي طورتها شركات أنثروبيك و جوجل و ميتا و أوبن أيه أي وإكس كروب، تُستخدم جميع الأنظمة الخمسة على نطاق واسع، وتشكل العمود الفقري لروبوتات الدردشة المدعومة بالذكاء الاصطناعي والمضمنة في مواقع الويب والتطبيقات في جميع أنحاء العالم بحسب نيوزويك.

وباستخدام أدوات تطوير لا يمكن للعامة الوصول إليها عادةً، وجد الباحثون أنهم يستطيعون بسهولة برمجة حالات من أنظمة الذكاء الاصطناعي للرد على أسئلة متعلقة بالصحة بمعلومات غير صحيحة - وربما ضارة، والأسوأ من ذلك، أن برامج المحادثة الآلية وجدت أنها تغلف إجاباتها الزائفة بحجج مقنعة.

إجابات خاطئة

و أوضح مؤلف الدراسة ناتانش مودي من جامعة جنوب أفريقيا: "في المجمل، كانت 88 في المائة من جميع الاستجابات خاطئة، ومع ذلك، فقد تم تقديمها بمصطلحات علمية، ونبرة رسمية، ومراجع ملفقة جعلت المعلومات تبدو مشروعة".

ومن بين الادعاءات الكاذبة التي تم نشرها كانت الأساطير التي تم فضحها مثل أن اللقاحات تسبب مرض التوحد، وأن فيروس نقص المناعة البشرية مرض ينتقل عن طريق الهواء، وأن تقنية الجيل الخامس تسبب العقم.

من بين روبوتات الدردشة الخمسة التي خضعت للتقييم، قدّمت أربعة منها إجابات خاطئة تماماً، نموذج واحد فقط أظهر بعض المقاومة، مما أدى إلى نشر معلومات مضللة في 40% من الحالات.

ولم يتوقف البحث عند نقاط الضعف النظرية؛ بل ذهب مودي وفريقه إلى خطوة أبعد من ذلك، باستخدام متجر GPT التابع لشركة أوبن أيه أي - وهي منصة تسمح للمستخدمين ببناء ومشاركة تطبيقات "شات جي بي تي" المخصصة - لاختبار مدى سهولة قيام أفراد الجمهور بإنشاء أدوات التضليل بأنفسهم.

وقال مودي "لقد نجحنا في إنشاء نموذج أولي لروبوت محادثة مضلل باستخدام المنصة، كما حددنا أيضاً الأدوات العامة الموجودة في المتجر والتي كانت تعمل بنشاط على إنتاج معلومات صحية مضللة".

وأكد: "دراستنا هي الأولى التي تثبت بشكل منهجي أن أنظمة الذكاء الاصطناعي الرائدة يمكن تحويلها إلى روبوتات دردشة مضللة باستخدام أدوات المطورين، ولكن أيضاً الأدوات المتاحة للجمهور"، الدراسة نُشرت في مجلة حوليات الطب الباطني.

تهديد متزايد للصحة العامة

وبحسب الباحثين، فإن التهديد الذي تشكله برامج الدردشة الآلية التي تعتمد على الذكاء الاصطناعي ليس افتراضياً، بل هو حقيقي ويحدث الآن.

وقال مودي "إن الذكاء الاصطناعي أصبح الآن جزءاً لا يتجزأ من طريقة الوصول إلى المعلومات الصحية وتقديمها، يتجه ملايين الأشخاص إلى أدوات الذكاء الاصطناعي للحصول على إرشادات بشأن الأسئلة المتعلقة بالصحة، فإذا كان من الممكن التلاعب بهذه الأنظمة لإنتاج نصائح كاذبة أو مضللة سراً، فإنها قد تخلق طريقاً جديداً قوياً للتضليل يصعب اكتشافه وتنظيمه ويكون أكثر إقناعاً من أي شيء رأيناه من قبل".

وأظهرت دراسات سابقة بالفعل أن الذكاء الاصطناعي التوليدي يمكن إساءة استخدامه لإنتاج معلومات صحية مضللة على نطاق واسع - مثل المدونات المضللة أو منشورات وسائل التواصل الاجتماعي - حول مواضيع تتراوح من المضادات الحيوية والأنظمة الغذائية العصرية إلى المعالجة المثلية واللقاحات.

ميزة البحث

وما يميز هذا البحث الجديد هو أنه الأول الذي يوضح كيف يمكن إعادة برمجة أنظمة الذكاء الاصطناعي الأساسية بشكل متعمد لتعمل كمحركات للتضليل في الوقت الفعلي، والاستجابة للمستخدمين اليوميين بمزاعم كاذبة تحت ستار النصائح الموثوقة.

ووجد الباحثون أنه حتى عندما لا تكون المطالبات ضارة بشكل صريح، فإن برامج المحادثة الآلية قد "تولد ذاتياً أكاذيب ضارة".

في حين أظهر أحد النماذج - وهو نموذج سونيت كلود 3.5 من أنثروبيك - بعض المرونة برفضه الإجابة على 60% من الاستفسارات المضللة، رغم ذلك يقول الباحثون إن هذا غير كافٍ. كانت الحماية عبر الأنظمة غير متسقة، وفي معظم الحالات، كان من السهل تجاوزها.

وأشار مودي إلى أن "بعض النماذج أظهرت مقاومة جزئية، وهو ما يثبت أن الضمانات الفعالة قابلة للتحقيق من الناحية الفنية، ومع ذلك، فإن الحماية الحالية غير متسقة وغير كافية. يجب على المطورين والجهات التنظيمية والجهات المعنية بالصحة العامة اتخاذ إجراءات حاسمة، وأن يتصرفوا فوراً، إذا تُركت دون رادع، فإن إساءة استخدام الذكاء الاصطناعي في السياقات الصحية قد تؤدي إلى عواقب وخيمة: تضليل المرضى، وتقويض الأطباء، وتغذية التردد في تلقي اللقاحات، وتدهور نتائج الصحة العامة".

ويدعو مؤلفو الدراسة إلى إصلاحات شاملة - بما في ذلك المرشحات التقنية الأقوى، والشفافية الأفضل حول كيفية تدريب نماذج الذكاء الاصطناعي، وآليات التحقق من الحقائق، وأطر السياسة لمحاسبة المطورين.

ويقارن الباحثون بين كيفية انتشار المعلومات الكاذبة على وسائل التواصل الاجتماعي، محذرين من أن المعلومات المضللة تنتشر أسرع بست مرات من الحقيقة، وأن أنظمة الذكاء الاصطناعي يمكن أن تعزز هذا الاتجاه.

تحذير نهائي

وقال مودي: "بدون اتخاذ إجراءات فورية، قد تستغل جهات خبيثة هذه الأنظمة للتلاعب بالخطاب المتعلق بالصحة العامة على نطاق واسع، وخاصة خلال الأزمات مثل الأوبئة أو حملات التطعيم".

 

وكالات

 

Wednesday, July 9, 2025 - 9:13:09 PM
المزيد من اخبار القسم الاخباري

آخر الاضافات


أخبار منوعة
حوادث



>
جميع الحقوق محفوظة © الحقيقة الدولية للدراسات والبحوث 2005-2025