من بين التحديات الكبرى للصحافة في عصر الذكاء الاصطناعي توثيق المعلومات، حيث تعتمد تطبيقات الذكاء الاصطناعي على البيانات والمعلومات الأوسع انتشارًا على الإنترنت، والتي ليست بالضرورة الأكثر موثوقية.
ومن ثم، فإن استخدام أدوات الذكاء الاصطناعي دون تدقيق ورقابة بشرية لتوثيق المعلومات من مصادر موثوقة قد يحمّل المؤسسة الصحفية مسؤولية قانونية وأخلاقية نتيجة نشر معلومات خاطئة أو غير مدققة.
وفي ظل غياب التشريعات المنظمة لمصادر معلومات تطبيقات الذكاء الاصطناعي، لاسيما في بعض الدول التي ما زالت تحاول اللحاق بتقنيات الذكاء الاصطناعي المتسارعة لمواكبتها، يجب أن يخضع المحتوى المولّد عبر الذكاء الاصطناعي لرقابة داخلية من المؤسسة الصحفية وفريقها قبل نشره وإكسابه صفة العلانية.
بقلم عائشة العفيفي
رئيس تحرير بوابات التكنولوجيا وأخبارها في الإمارات ومصر
بينما كانت التكنولوجيا تُحدث قفزات هائلة في غرفة الأخبار، ظلّ سؤال محوري يهمس في آذان الصحفيين والقراء على حد سواء: هل يمكن الوثوق بخبر صاغته آلة؟ هل تملك الخوارزميات أخلاقيات، أم أن السباق نحو السرعة والدقة قد يأتي على حساب المبادئ؟
في الحقيقة، لا يمكن الحديث عن الذكاء الاصطناعي في الصحافة دون التوقف مطولًا أمام الإشكال الأخلاقي، الذي بات أكثر إلحاحًا في ظل انتشار المحتوى الآلي وتضخّم حجمه على حساب الإنتاج البشري. وإذا كانت أدوات الذكاء الاصطناعي قد منحت الصحافة قدرات غير مسبوقة، فإنها كذلك فتحت الباب أمام تحديات جديدة، تمس جوهر العمل الصحفي: الحقيقة.
المسؤولية الأخلاقية: من يتحملها؟
عندما يُخطئ صحفي بشري، يمكن محاسبته، توبيخه، أو حتى منعه من مزاولة المهنة. أما إذا أخطأ نظام ذكاء اصطناعي—بتقديم معلومة خاطئة، أو تحريف اقتباس، أو إظهار تحيّز ضمني—فمن المسؤول؟ المطور؟ المؤسسة الإعلامية؟ أم المستخدم النهائي؟
غياب هذا “الضمير التحريري” داخل الأنظمة الذكية يجعل الاعتماد الكامل عليها مخاطرة حقيقية. صحيح أنها تُبدع في جمع البيانات وتحليلها، لكنها تفتقر إلى السياق الإنساني، إلى فهم التعقيدات الاجتماعية والسياسية، إلى استشعار التأثير النفسي للكلمات والصور.
التحيّز الخوارزمي: خطر غير مرئي
العديد من الأنظمة الذكية تدرّبت على بيانات ضخمة من الإنترنت، لكنها لا تميز بين الموثوق والمضلل، بين التحيّز والحياد. وبالتالي، ما لم يُراقب المحتوى الناتج عنها بشكل دقيق، يمكن أن تنتج خوارزميات الذكاء الاصطناعي محتوى مشوَّهًا، يتبنى مواقف غير مقصودة أو يُسهم في نشر معلومات مغلوطة.
في عام 2023، انتقدت جهات إعلامية كبرى ما وصفته بـ”التحيز العرقي” في نتائج بعض أدوات تحليل الأخبار المدعومة بالذكاء الاصطناعي، والتي كانت تصنف جرائم معينة وفقًا لجنسية الجاني أو لون بشرته، استنادًا إلى أنماط غير مدروسة تعلمتها من بيانات الإنترنت.
التلاعب بالمحتوى: الذكاء الاصطناعي كسلاح دعائي
من أخطر التطبيقات التي ظهرت مؤخرًا هي استخدام الذكاء الاصطناعي في إنتاج مقالات وهمية، أو صور مزيفة (Deepfakes)، أو محتوى دعائي مُقنّع بصيغة صحفية. هنا تتحول التكنولوجيا إلى أداة تضليل، وقد يُستخدم “قناع الصحافة” لتمرير أجندات سياسية أو اقتصادية دون وعي القارئ بذلك.
في هذا السياق، يجب على المؤسسات الإعلامية الالتزام التام بالشفافية. أي محتوى يعتمد على الذكاء الاصطناعي ينبغي الإشارة إليه بوضوح. كذلك، يجب تعزيز التدريب الداخلي للصحفيين على اكتشاف المحتوى المضلل، سواء كان من إنتاج بشر أو آلات.
الضوابط والتشريعات: هل تكفي؟
حتى الآن، ما تزال التشريعات المتعلقة باستخدام الذكاء الاصطناعي في الصحافة غير كافية أو واضحة. بعض الدول بدأت فعليًا بوضع أطر قانونية، لكن التقدم بطيء مقارنة بالسرعة التي تتطور بها هذه التكنولوجيا. في المقابل، تتحمل المؤسسات الإعلامية مسؤولية وضع مواثيق داخلية، تُحدد بوضوح:
- حدود استخدام الذكاء الاصطناعي
- آليات مراجعة وتحرير المحتوى الناتج عنه
- واجبات الشفافية تجاه الجمهور
دور الصحفي في العصر الذكي
أمام هذه التحديات، يصبح الصحفي أكثر من مجرد كاتب أو ناقل للخبر، بل حارسًا للمعنى والمصداقية. عليه أن يُجيد استخدام الذكاء الاصطناعي دون أن يقع أسيرًا له. أن يعرف متى يعتمد عليه، ومتى يعارضه. أن يراجع، ويُدقق، ويُعيد الإنسانية إلى الخبر.
فالمعلومة قد تُنتج في ثوانٍ، لكن الثقة تُبنى على مدار سنوات. وما لم تتأسس علاقة جديدة، ناضجة ومسؤولة، بين الصحفي والأداة الذكية، فقد نجد أنفسنا أمام مشهد صحفي سريع… لكن هش، لامع… لكنه بلا عمق.
للتواصل : aisha@eemirates.net
سجل في قائمتنا البريدية لتصلك آخر الأخبار
تابعونا أيضا على بوابة التكنولوجيا وأخبارها في مصر