واشنطن (عربي times)
خلصت دراسة حديثة، إلى أن برامج وتطبيقات الكشف عن النصوص المكتوبة بواسطة الذكاء الاصطناعي، لا يمكن الاعتماد عليها؛ كونها متحيزة وغير دقيقة.
وأظهرت الدراسة التي قام بها فريق من الباحثين في جامعة ستانفورد الأمريكية، أن “التطبيقات والبرامج المكتشفة للنصوص المنتجة بواسطة الذكاء الاصطناعي لم تستطع الوصول إلى نتائج مقبولة، واعتبرت النصوص المكتوبة بالإنجليزية بواسطة غير المتحدثين الأصليين بها بأنها منتجة من الذكاء الاصطناعي؛ ما يثبت محدودية القيمة التي تتمتع بها هذه البرامج”.
وبين موقع “سي نت” المتخصص في موضوعات التكنولوجيا أن “الدراسة اعتمدت على إجابات 91 طالبا خاضوا امتحان التوفل في الصين، و88 موضوع تعبير كتبها طلبة من الصف الثامن في أمريكا، وتم فحصها بواسطة 7 تطبيقات لاكتشاف إنتاج الذكاء الاصطناعي”.
وأظهرت النتائج تصنيف 61% من إجابات الصينيين من إعداد الذكاء الاصطناعي فيما صنفها أحدهم بنسبة 97.8%، فيما صنفت 5.1% من إجابات طلبة الصف الثامن بأنها من إنتاج الذكاء الاصطناعي، فيما صنفت 18 إجابة تمثل مقالات في امتحان التوفل على أنها من إنتاج الذكاء الاصطناعي بالتطبيقات المستخدمة كافة.
وعزا الباحثون أسباب اتفاق أدوات اكتشاف النصوص على المقالات لوجود ظاهرة “تشويش النص”، ليعتبرها غير منتجة من البشر، وتعرف الظاهرة بنسبة وجود مفردات ومصطلحات عشوائية في النصوص.
وأرجع العلماء أسباب وجود ظاهرة تشوش النص إلى أن غير المتحدثين بالإنجليزية كلغتهم الأم يمتلكون حصيلة أقل من المصطلحات وتظهر جلية بنصوصهم؛ لذلك لم تميزها التطبيقات بأنها من إنتاجهم.
Comments are closed.