الارشيف / تكنولوجيا / نبض

أكبر إخفاقات الذكاء الاصطناعي التي حدثت في عام 2024 #تقنية #حصاد2024 #الذكاء_الاصطناعي

أكبر إخفاقات الذكاء الاصطناعي التي حدثت في عام 2024 #تقنية #حصاد2024 #الذكاء_الاصطناعي

شهد مجال الذكاء الاصطناعي على مدار عام 2024 زخمًا كبيرًا وتطورات متسارعة، فقد شهدنا إطلاق عدد كبير من المنتجات الناجحة، التي يصعب حصرها بدقة لكثرتها، بالإضافة إلى ذلك، حصدت بعض الإنجازات في هذا المجال جوائز نوبل، مما يعكس الأهمية المتزايدة للذكاء الاصطناعي وتأثيره في مختلف جوانب حياتنا.

ومع ذلك، لم يكن مسار التطور هذا خاليًا من التحديات والمصاعب، فالذكاء الاصطناعي بطبيعته تقنية تحمل في طياتها الكثير من المفاجآت وعدم اليقين، كما أن الانتشار الواسع لنماذج الذكاء الاصطناعي التوليدي قد دفع العديد من الأفراد والمؤسسات إلى اختبار حدود هذه التقنية بطرق جديدة، بعضها كان مبتكرًا ومفيدًا، وبعضها اتخذ مسارات غريبة وغير تقليدية، بل وأحيانًا ضارة، مما أدى إلى ظهور بعض الإخفاقات التي تمثل نقاطًا سلبية في مسيرة تطور الذكاء الاصطناعي خلال عام 2024.

1- نفايات الذكاء الاصطناعي تغرق الإنترنت في عام 2024:

بدأ المجتمع التقني والإعلامي خلال عام 2024 باستخدام مصطلح جديد يُسمى (نفايات الذكاء الاصطناعي) AI slop، للإشارة إلى المحتوى الرقمي الرديء وغير المرغوب فيه الذي أُنشئ باستخدام نماذج الذكاء الاصطناعي التوليدي، إذ سهلت هذه النماذج عملية إنشاء كميات ضخمة من المحتوى بأنواعه المختلفة، سواءً كانت نصوصًا مكتوبة، أو صورًا أو مقاطع فيديو، أو غيرها من المواد الرقمية، بكفاءة وسرعة فائقة.

فبمجرد إدخال مطالبة نصية بسيطة (prompt) إلى النموذج يستغرق الأمر ثوانٍ معدودة فقط لينتج النموذج مخرجاته، وقد غيرت هذه السرعة والسهولة طريقة إنتاج المحتوى حذريًا، كما انتشر هذا المحتوى الرديء تقريبًا في كل ركن من أركان الإنترنت، ابتداءً من الرسائل الإخبارية التي تصل إلى البريد الإلكتروني، ومرورًا بالكتب المعروضة للبيع على منصات التجارة الإلكترونية مثل أمازون، والصور الرديئة التي غزت منصات التواصل الاجتماعي، ووصولًا إلى الإعلانات والمقالات المنشورة عبر مختلف المواقع الإلكترونية.

ولم يقتصر الضرر الناتج عن هذا المحتوى الرديء على مجرد الإزعاج أو انتشار معلومات مضللة أو أخبار كاذبة، بل يتعدى ذلك ليشكل مشكلة حقيقية تهدد مستقبل النماذج نفسها التي تنتجه، فبما أن هذه النماذج تُدرّب على كميات ضخمة من البيانات المجمعة من الإنترنت، فإن تزايد عدد المواقع الإلكترونية التي تحتوي على هذه (النفايات الرقمية) المنتجة باستخدام أدوات الذكاء الاصطناعي، يُعرض هذه النماذج لخطر يُعرف باسم (تسمم البيانات) Data Poisoning، الذي يؤدي إلى تدهور جودة إنتاج هذه النماذج وأدائها بشكل مطرد مع مرور الوقت، مما يشكل تحديًا كبيرًا أمام تطور هذه التقنية على المدى الطويل ويهدد فاعليتها ومصداقيتها.

2- فن الذكاء الاصطناعي يشوّه تصوراتنا عن الأحداث الواقعية: شهد عام 2024 تصاعدًا في تأثير الصور التي ينشئها الذكاء الاصطناعي في حياتنا اليومية، فقد تجاوزت حدود العالم الافتراضي لتؤثر بشكل ملموس في تصوراتنا للأحداث الواقعية، فلم يَعد الأمر مجرد صور سريالية أو فنية مبهرة، بل أصبح أداة قادرة على تشويه الحقائق وصنع توقعات مضللة للجمهور.

وتُعدّ (تجربة شوكولاتة ويلي) مثالًا قويًا على هذا التأثير، فقد تصدرت هذه الفعالية الغامرة المستوحاة من رواية (مغامرة تشارلي في مصنع الشوكولاتة) للكاتب الشهير روالد دال، عناوين الأخبار العالمية في شهر فبراير 2024، ويرجع السبب في ذلك إلى استخدام منظمي الفعالية مواد تسويقية خيالية أُنشئت باستخدام الذكاء الاصطناعي.

وقد تركت هذه المواد التسويقية، بما تحتويه من صور وتصاميم مبهرة، لدى الجمهور انطباعًا زائفًا بأن الفعالية ستكون ضخمة وفاخرة ومليئة بالتفاصيل والأنشطة، ولكن الواقع كان مُخيبًا للآمال، إذ وجد الزوار أنفسهم أمام مستودع بسيط لا يمت بصلة لما رأوه في الإعلانات المضللة، وقد كشف هذا التباين الصارخ بين التوقعات والواقع عن قوة تأثير صور الذكاء الاصطناعي في صنع تصورات مضللة.

كما وقعّت حادثة أخرى في دبلن لتؤكد هذا التأثير المتنامي، إذ اصطف المئات من الأشخاص في الشوارع لحضور عرض هالوين لم يكن موجودًا أصلًا، ويعود السبب في هذا التجمع إلى موقع ويب مقره باكستان استخدم الذكاء الاصطناعي لإنشاء قائمة بفعاليات الهالوين في المدينة، وقد جرى تداول هذه القائمة بشكل واسع عبر منصات التواصل الاجتماعي، مما دفع الكثيرين للاعتقاد بوجود العرض والتوافد إلى مكان إقامته المفترض، وقد أُغلق الموقع المسؤول عن نشر هذه المعلومات الكاذبة لاحقًا، ولكن هذا الحدث يسلط الضوء على مدى سهولة تضليل الجمهور عبر الإنترنت باستخدام معلومات مفبركة بالذكاء الاصطناعي، وكيف يمكن أن يؤدي ذلك إلى نتائج محرجة أو خطيرة.

3- كسر روبوت (Grok) للقيود: يتيح روبوت (Grok)، الذي طورته شركة (xAI) التابعة لإيلون ماسك، للمستخدمين إمكانية إنشاء صور افتراضية لأي سيناريو يتخيلونه تقريبًا، وهو ما يُعدّ خروجًا صارخًا عن الممارسات المتبعة في معظم أدوات توليد الصور الأخرى القائمة على الذكاء الاصطناعي.

إذ تضع الغالبية العظمى من مولدات صور الذكاء الاصطناعي ضوابط وقائية وهي عبارة عن مجموعة من القواعد التي تحدد بدقة ما يمكن لنماذج الذكاء الاصطناعي فعله وما لا يمكنها فعله لمنع المُستخدمين من إنشاء محتوى يُعدّ عنيفًا أو فاضحًا أو غير قانوني أو يمكن أن يسبب ضررًا بأي شكل من الأشكال.

وفي بعض الأحيان، تهدف هذه الضوابط أيضًا إلى حماية الملكية الفكرية للأفراد والشركات ومنع أي استخدام صارخ أو غير مصرح به لمواد محمية بحقوق الطبع والنشر.

ولكن روبوت (Grok)، الذي يتماشى مع رؤية إيلون ماسك الرافضة لما يسميه (الذكاء الاصطناعي المستيقظ) woke AI، يتجاهل بنحو كبير هذه المبادئ والقواعد المتعارف عليها، ويُعدّ هذا التجاهل نقطة خلاف كبيرة تثير الكثير من الجدل حول أخلاقيات استخدام الذكاء الاصطناعي.

بينما ترفض نماذج الصور الأخرى بشكل عام إنشاء صور تجسد شخصيات مشهورة أو مواد محمية بحقوق الطبع والنشر أو مشاهد عنف أو أعمال إرهابية إلا في حالات نادرة تُخدع فيها هذه النماذج أو يجري التحايل على قواعدها يُقدم روبوت (Grok) على إنشاء مثل هذه الصور بكل سهولة، فعلى سبيل المثال، يُمكن لـ Grok إنشاء صورة لدونالد ترامب وهو يطلق قذيفة بازوكا، أو صورة أخرى لميكي ماوس وهو يحمل قنبلة.

وفي حين يضع (Grok) حدًا عند إنشاء صور عارية، لكن رفضه الالتزام ببقية القواعد والضوابط يقوض الجهود التي تبذلها الشركات الأخرى لتجنب إنشاء مواد.....

لقراءة المقال بالكامل، يرجى الضغط على زر "إقرأ على الموقع الرسمي" أدناه

انتبه: مضمون هذا الخبر تم كتابته بواسطة نبض ولا يعبر عن وجهة نظر مصر اليوم وانما تم نقله بمحتواه كما هو من نبض ونحن غير مسئولين عن محتوى الخبر والعهدة علي المصدر السابق ذكرة.