برخی خبرنگاران ایرانی از چت جیپیتی برای نگارش سریعتر و بهتر گزارشها استفاده میکنند، اما اشتباهات ریز در آنها دیده میشود. رسانههای معتبر جهانی مانند نیویورک تایمز، بیبیسی و گاردین بهدلیل نگرانی از صحت، بیطرفی و سوگیری، استفاده از این فناوری را محدود کردهاند تا استقلال روزنامهنگاری حفظ شود.
رصدخبر | فرهنگ ؛ با فراگیر شدن استفاده از چت جیپیتی، بسیاری از خبرنگاران شاغل در رسانههای ایرانی و حتی روابطعمومیهای شرکت خصوصی و دولتی، به بهرهگیری وسیع از این فناوری روی آوردهاند و اطلاعات تولیدشده توسط این هوش مصنوعی را در گزارشهای خود به کار میگیرند!
تحلیل گزارشهای منتشرشده دو نکته مهم را آشکار میکند. نخست، برخی خبرنگارانی که تا مدتی پیش قادر به نگارش گزارشهای دقیق نبودند و آثارشان با مشکلاتی همچون ضعف در ویرایش، غلطهای املایی و عدم انسجام روبهرو بود، اکنون گزارشهایی تهیه میکنند که گویی توسط یک روزنامهنگار باتجربه نوشته شده است. دوم سرعت آنها در تهیه گزارش است. افرادی که برای نوشتن یک گزارش ساده، نیازمند زمانی طولانی بودند، الان در کمترین زمان ممکن، دو یه سه گزارش مینویسند! جلالخالق.
اما وقتی گزارش آنها را میخوانید متوجه نکتهها و اطلاعات و اشتباهات ریزی میشوید که خبرنگار از تصحیح آنها غفلت کرده است.
همکاران رسانهای باید توجه داشته باشند که استفاده از این شیوه پیامدهای متعددی به همراه دارد. تا جایی که برخی رسانههای معتبر جهانی نیز محدودیتهای رسمی برای استفاده خبرنگاران از چت جیپیتی در تهیه گزارشهای خبری اعمال کردهاند.
این ممنوعیتها عمدتاً با هدف حفظ دقت اطلاعات، جلوگیری از انتشار اخبار نادرست و حفظ استقلال روزنامهنگاری اتخاذ شدهاند.
نمونهای از رسانههایی که استفاده از چت جیپیتی را برای خبرنگاران خود محدود یا ممنوع کردهاند:
نیویورک تایمز؛ این روزنامه بهدلیل نگرانیهای مربوط به صحت اطلاعات و حفظ استانداردهای روزنامهنگاری مستقل، استفاده از چت جیپیتی را برای خبرنگاران خود ممنوع کرده است. همچنین، نیویورک تایمز علیه OpenAI شکایتی مطرح کرده و مدعی شده که این شرکت بدون اجازه از محتوای روزنامه برای آموزش مدلهای هوش مصنوعی خود استفاده کرده است.
بیبیسی؛ این رسانه تأکید دارد که هرگونه استفاده از هوش مصنوعی باید تحت نظارت انسانی و مطابق با ارزشهای خدمات عمومی باشد. خبرنگاران بیبیسی اجازه ندارند گزارشهای خبری را مستقیماً با چت جیپیتی تولید کنند، زیرا ممکن است دقت و بیطرفی اخبار را تحت تأثیر قرار دهد.
رویترز؛ این خبرگزاری استفاده از چت جیپیتی را برای تولید گزارشهای خبری بدون نظارت انسانی ممنوع کرده است، زیرا چنین اقدامی ممکن است منجر به انتشار اطلاعات نادرست و کاهش اعتبار روزنامهنگاری مستقل شود.
گاردین؛ این روزنامه بهدلیل چالشهای اخلاقی و خطر سوگیری در هوش مصنوعی، استفاده از چت جیپیتی را برای خبرنگاران خود محدود کرده است. گاردین تأکید دارد که تحقیق مستقل و تحلیل انسانی باید در اولویت قرار گیرد.
واشنگتنپست؛ این روزنامه استفاده از چت جیپیتی را برای تهیه گزارشهای خبری حساس ممنوع کرده است، زیرا معتقد است این فناوری میتواند بر صحت اطلاعات و بیطرفی اخبار تأثیر بگذارد.
دلایل اصلی اعمال این محدودیتها:
حفظ دقت و صحت اطلاعات: چت جیپیتی ممکن است اطلاعات نادرست یا ناقص تولید کند. همچنین عموما تاریخها را جابهجا بیان میکند و گاه ممکن است در خصوص برخی افراد قصهسراییهای باطلی انجام دهد.
جلوگیری از انتشار اخبار گمراهکننده: برخی رسانهها نگران هستند که هوش مصنوعی بدون تحقیق مستقل، اطلاعات نادرست را از فیکنیوزها و باجنیوزها و رسانههای غیر معتبر برداشت و آنها را منتشر کند.
حفظ استقلال روزنامهنگاری: خبرنگاران باید تحقیق و تحلیل انسانی را در اولویت قرار دهند. چت جیپیتی به آنها در ارایهی نوشتن کمک میکند اما رفتهرفته نیروی ذهنی آنها را تنبل میکند تا جاییکه حتی برای نوشتن یک لید ساده هم محتاج هوش مصنوعی میشوند!
مسائل اخلاقی و سوگیری: مدلهای هوش مصنوعی ممکن است سوگیریهای موجود در برخی از دادهها را بازتولید کند و تعصبات یا اختلافات موجود را در حوزه قومیتی، دینی، تبعیض نژادی و… تقویت کند.
باشگاه روزنامهنگاران