"معايير الشفافية في استخدام الذكاء الاصطناعي في الصحافة: حماية الجمهور من التلاعب"

تاريخ النشر:
الصيغة:
عدد الصفحات:
الوصف:
أكتوبر 29, 2025
PDF
١٠


أولاً: المقدمة

يشهد العالم اليوم طفرة غير مسبوقة في مجال التقنيات الرقمية والذكاء الاصطناعي، وهي طفرة لم يعد أثرها مقتصرًا على قطاعات الصناعة أو الاقتصاد أو الأمن، بل امتد ليشمل المجال الإعلامي والصحفي الذي يُعد أحد أعمدة المجال العام وأحد أهم أدوات تشكيل الرأي العام. لقد غيّر الذكاء الاصطناعي شكل الممارسة الصحفية من حيث السرعة والقدرة على تحليل كمٍّ هائل من البيانات وتقديم محتوى متنوع في وقت قياسي، كما فتح الباب أمام ابتكارات جديدة في إنتاج الأخبار وتوزيعها على نطاق واسع. غير أن هذا التطور السريع يطرح في الوقت ذاته إشكاليات جوهرية تتعلق بالشفافية والمساءلة، إذ تزداد المخاوف من إمكانية استخدام تلك التقنيات بطرق قد تُفضي إلى التضليل أو التلاعب بالوعي العام.

إن إدماج الذكاء الاصطناعي في الصحافة لا يمكن النظر إليه فقط باعتباره خطوة تقنية أو تحديثًا في أدوات العمل الصحفي، بل هو تحول بنيوي عميق يمس العلاقة بين الصحافة والجمهور والدولة. فإذا كان جوهر الصحافة قائمًا على المصداقية والحياد ونقل الحقائق للجمهور، فإن غياب الشفافية في كيفية استخدام الخوارزميات أو إنتاج النصوص أو ترشيح الأخبار، يمكن أن يقوض هذه الأسس ويُضعف ثقة الجمهور في المؤسسات الإعلامية. وفي سياق تتزايد فيه الأزمات السياسية والاجتماعية، يصبح الحفاظ على ثقة الجمهور أولوية سياسية وأمنية لا تقل أهمية عن أي بعد اقتصادي أو تقني.

تأتي هذه الورقة للتركيز على مسألة "معايير الشفافية في استخدام الذكاء الاصطناعي في الصحافة" بوصفها أداة لحماية الجمهور من التلاعب وحماية المجال العام من مخاطر التضليل. وهي تسعى إلى مناقشة السياق الدولي والمحلي لاستخدام هذه التقنيات، واستعراض أبرز التحديات والمخاطر، وتوضيح المفهوم العملي للشفافية في هذا الإطار، ثم اقتراح معايير وسياسات عملية يمكن تبنيها من قبل الحكومات والمؤسسات الإعلامية لضمان أن تظل الصحافة أداةً للخدمة العامة لا أداةً للتأثير الخفي أو الموجه.

تنبع أهمية هذه المناقشة من أن الصحافة لم تعد وحدها المسؤولة عن إنتاج المعرفة، بل صارت تتقاطع مع شركات التكنولوجيا الكبرى ومنصات التواصل الاجتماعي ومطوري البرمجيات الذين يملكون قدرة غير مسبوقة على التحكم في تدفق المعلومات. ومن ثم فإن إرساء معايير واضحة للشفافية يُصبح شرطًا أساسيًا لتحقيق التوازن بين الابتكار التكنولوجي وحماية الجمهور من الاستغلال.

ثانيًا: السياق العام والتحديات

1. السياق الدولي

على المستوى العالمي، يشهد استخدام الذكاء الاصطناعي في الصحافة توسعًا متسارعًا. العديد من المؤسسات الإعلامية الكبرى مثل "واشنطن بوست" و"رويترز" و"بي بي سي" بدأت تعتمد على أدوات الذكاء الاصطناعي لتوليد الأخبار الاقتصادية والرياضية، وإنتاج ملخصات سريعة للتقارير، بل وحتى في المساعدة على صياغة عناوين جاذبة للجمهور. كما أن منصات التواصل الاجتماعي العملاقة مثل "فيسبوك" و"X" و"يوتيوب" تستند إلى خوارزميات معقدة لتوصية المحتوى للمستخدمين، وهي خوارزميات تعتمد بشكل متزايد على تقنيات الذكاء الاصطناعي. هذا الاستخدام المكثف يفتح المجال أمام فرص هائلة لتطوير الصحافة، لكنه في الوقت ذاته يكشف عن تحديات غير مسبوقة.

من بين هذه التحديات، يبرز خطر تضاؤل قدرة الجمهور على التمييز بين المحتوى الذي أُنتج بواسطة صحفي بشري وذلك الذي أُنتج أو عُدّل بواسطة خوارزمية. كما يبرز القلق من التحيزات الخوارزمية التي قد تنشأ نتيجة لآليات التدريب المستخدمة في نماذج الذكاء الاصطناعي، حيث قد يتم تكريس أنماط من التمييز أو الانحياز دون وعي من المستخدم أو الصحفي نفسه. أضف إلى ذلك أن غياب الإفصاح عن كيفية عمل هذه الخوارزميات يجعل من الصعب مساءلة المؤسسات الإعلامية في حال تورطت في نشر محتوى مضلل أو منحاز.

2. السياق المحلي

أما في السياق العربي والمصري تحديدًا، فإن إدماج تقنيات الذكاء الاصطناعي في الصحافة ما زال في مرحلة أولية نسبيًا، لكنه يتسارع مع دخول منصات رقمية جديدة واستثمارات متزايدة في الإعلام الرقمي. ورغم أن هذه التطورات تتيح فرصة أمام المؤسسات الإعلامية لتجاوز العقبات التقليدية في التمويل والإنتاج، إلا أنها تكشف كذلك عن هشاشة بيئة الشفافية والرقابة. ففي كثير من الأحيان يتم اعتماد تقنيات الذكاء الاصطناعي دون أي إطار قانوني أو أخلاقي واضح، مما يفتح الباب أمام مخاطر حقيقية تتعلق بالتضليل أو توجيه الرأي العام بما يتعارض مع مصالح المجتمع.

إن التحديات التي تواجه البيئة الإعلامية المحلية لا تنحصر فقط في الجانب التقني، بل تمتد لتشمل أبعادًا سياسية واجتماعية. فضعف الشفافية في استخدام الأدوات الرقمية قد يؤدي إلى تعميق أزمة الثقة القائمة أصلًا بين الجمهور ووسائل الإعلام، حيث يشعر كثير من المواطنين أن الإعلام يخضع لتأثيرات سياسية واقتصادية تحد من استقلاليته. وفي ظل إدماج الذكاء الاصطناعي دون معايير واضحة، قد تتضاعف هذه الأزمة بما يهدد دور الإعلام كوسيط مستقل بين الدولة والمجتمع.

3. أبرز المخاوف

يتصدر التضليل الإعلامي قائمة المخاوف المرتبطة باستخدام الذكاء الاصطناعي في الصحافة. فمن خلال تقنيات "التزييف العميق" (Deepfake) مثلًا، أصبح من الممكن إنتاج فيديوهات وصور تبدو واقعية لكنها مفبركة بالكامل، ما يفتح الباب أمام نشر أخبار كاذبة يصعب التحقق منها بالوسائل التقليدية. يضاف إلى ذلك المخاطر المتعلقة بالخوارزميات المنحازة التي قد تفضل محتوى معينًا على حساب آخر، ليس بناءً على قيمته الصحفية، بل وفقًا لعوامل تجارية أو سياسية أو ثقافية مضمنة في البيانات المستخدمة للتدريب.

كذلك فإن غياب الشفافية يجعل من الصعب على الجمهور أن يفهم لماذا يتم عرض محتوى محدد لهم دون غيره. فقد يعتقد المستخدم أنه يطّلع على صورة شاملة للواقع، بينما في الحقيقة ما يراه لا يتجاوز ما تسمح به الخوارزميات وفقًا لمعايير غير معلنة. هذا الخطر لا يقتصر على تضليل فردي، بل يمتد ليؤثر على تشكيل الرأي العام، مما قد يؤدي إلى انقسام مجتمعي أو حتى تأجيج صراعات سياسية واجتماعية.

4. أمثلة على غياب الشفافية

شهد العالم عدة حالات مثيرة للجدل مرتبطة بغياب الشفافية في استخدام تقنيات الذكاء الاصطناعي في الإعلام. على سبيل المثال، تعرضت منصات كبرى لانتقادات حادة بسبب عدم وضوح معاييرها في إدارة المحتوى أو التعامل مع الأخبار الزائفة. وفي بعض الحالات، تم الكشف عن أن أنظمة التوصية ركزت بشكل مفرط على المحتوى المثير للجدل أو الاستقطابي لأنه يزيد من معدلات التفاعل، ما أدى عمليًا إلى نشر خطاب الكراهية وتعزيز الاستقطاب السياسي.

ثالثا: مفهوم الشفافية في استخدام الذكاء الاصطناعي

1. تعريف الشفافية التقنية والتحريرية

الشفافية في سياق استخدام الذكاء الاصطناعي بالصحافة تتخذ بعدين أساسيين: تقني وتحريري.

  • الشفافية التقنية تعني قدرة المؤسسة الإعلامية على توضيح الأسس التي تقوم عليها الأدوات والخوارزميات التي تستخدمها: كيف تعمل، ما المعايير التي تبني عليها قراراتها، وما حدودها. هذا الجانب يتطلب أن تكون التكنولوجيا المستخدمة مفهومة – ولو بشكل مبسط – للصحفيين وللجمهور، بحيث لا تبقى “صندوقًا أسود” يعمل في الخفاء.
  • أما الشفافية التحريرية فتتمثل في إعلان المؤسسات الإعلامية بوضوح عن متى وأين وكيف جرى استخدام أدوات الذكاء الاصطناعي في إنتاج المحتوى أو اختياره أو ترتيبه. الشفافية التحريرية هي التي تضمن ألا يُفاجأ الجمهور بأن المحتوى الذي تلقاه من الصحيفة أو المنصة لم يُنتج كليًا من قبل صحفيين بشريين، بل كان للذكاء الاصطناعي دور في صياغته أو ترتيبه.

2. الشفافية تجاه الجمهور مقابل الشفافية داخل غرف الأخبار

هناك فارق مهم بين مستويين من الشفافية:

  • الشفافية تجاه الجمهور: أي إتاحة معلومات واضحة وبسيطة عن الدور الذي يلعبه الذكاء الاصطناعي في إنتاج أو توزيع الأخبار. على سبيل المثال، وضع تنويه أسفل المقال يشير إلى أن النص تمت صياغته أو مراجعته بواسطة أداة ذكاء اصطناعي. هذه الخطوة تُمكّن القارئ من تقييم المحتوى بحذر وفهم مصدره.
  • الشفافية داخل غرف الأخبار: وهي أن تكون فرق العمل الصحفية نفسها على علم بكيفية عمل الأدوات التي يعتمدون عليها. غياب الشفافية داخل المؤسسات قد يؤدي إلى أن يستخدم الصحفيون أدوات دون إدراك كامل لانحيازاتها أو مخاطرها، مما يفتح الباب أمام أخطاء تحريرية جسيمة أو حتى تضليل غير مقصود.

3. معايير الشفافية المتداولة دوليًا

على المستوى الدولي، بدأت منظمات عدة في طرح مبادئ أو إرشادات لتعزيز الشفافية في استخدام الذكاء الاصطناعي بالصحافة:

  • الاتحاد الأوروبي أصدر توجيهات عامة حول الذكاء الاصطناعي المسؤول، تتضمن التأكيد على ضرورة الإفصاح عن دور الخوارزميات وحق الأفراد في معرفة كيف يتم اتخاذ القرارات الآلية التي تؤثر عليهم.
  • منظمة مراسلون بلا حدود وضعت خطوطًا عريضة ضمن "مبادئ الصحافة المعززة بالذكاء الاصطناعي"، والتي تشدد على أن يظل الصحفي في مركز العملية التحريرية، وأن أي تدخل للآلة يجب أن يُعلن بوضوح للجمهور.
  • كذلك أصدرت بعض المؤسسات الإعلامية الكبرى (مثل BBC أو New York Times) سياسات داخلية بشأن الإفصاح عن استخدام الذكاء الاصطناعي، وإن كان التطبيق لا يزال متفاوتًا.

4. التحديات العملية في تطبيق الشفافية

رغم وضوح المفهوم، فإن التطبيق العملي يواجه عقبات عديدة:

  • تعقيد الخوارزميات: الكثير من أنظمة الذكاء الاصطناعي الحديثة تعمل بطرق يصعب حتى على مطوريها شرحها بالتفصيل، مما يجعل تبسيطها للجمهور تحديًا كبيرًا.
  • المخاوف التنافسية: بعض المؤسسات تتردد في الإفصاح عن تفاصيل استخداماتها للتقنيات خوفًا من أن تفقد ميزة تنافسية أمام منافسين آخرين.
  • غياب المعايير الموحدة: رغم وجود مبادئ عامة، إلا أن آليات تطبيق الشفافية تختلف من مؤسسة إلى أخرى، مما يجعل الجمهور في حالة ارتباك.

رابعا: آثار غياب الشفافية على الجمهور

1. تآكل الثقة في المؤسسات الإعلامية

الثقة هي رأس المال الحقيقي للصحافة. عندما يكتشف الجمهور أن المؤسسات الإعلامية تستخدم أدوات الذكاء الاصطناعي دون الإفصاح عنها، يترسخ الشعور بأن هناك "شيئًا مخفيًا" أو "خداعًا". بمرور الوقت، يؤدي ذلك إلى تآكل الثقة ليس فقط في وسيلة إعلامية معينة، بل في الصحافة ككل. هذا التآكل قد يكون بطيئًا، لكنه عميق، ويصعب استعادته لاحقًا.

2. صعوبة التمييز بين المحتوى البشري والآلي

غياب الشفافية يجعل الجمهور عاجزًا عن معرفة ما إذا كان النص الذي يقرأه أو الفيديو الذي يشاهده قد صُنع بالكامل بواسطة الذكاء الاصطناعي أم بمساهمة بشرية. هذا الغموض يضعف قدرة الجمهور على تقييم مصداقية المحتوى، ويجعله أكثر عرضة للانخداع بالمعلومات المغلوطة أو المُفبركة.

3. مخاطر التلاعب بالرأي العام

عندما تُدار خوارزميات التوصية بسرية تامة، يصبح من الممكن توجيه الجمهور نحو محتوى بعينه دون وعي منه. هذا النوع من التلاعب قد يخدم مصالح تجارية، أو سياسية، أو حتى دعائية. غياب الإفصاح عن آليات عمل هذه الخوارزميات يفتح الباب واسعًا أمام استغلال الرأي العام وتوجيهه بطرق غير شفافة.

4. الأثر طويل المدى على المجال العام

إذا استمر غياب الشفافية، قد تتآكل الحدود الفاصلة بين الصحافة كمهنة قائمة على النزاهة والدقة، وبين صناعة المحتوى الآلي التي لا تعترف سوى بالانتشار والربح. هذا التحول له تبعات خطيرة على المجال العام، إذ يتحول من ساحة للنقاش المستنير إلى ساحة تغمرها المعلومات الآلية غير الموثوقة.

خامسا: نماذج ومعايير مقترحة للشفافية في الصحافة المعززة بالذكاء الاصطناعي

1. التنويه الصريح في المحتوى

من أبسط وأوضح أشكال الشفافية أن يتم وضع تنويه مباشر داخل المادة الصحفية يوضح للقارئ أو المشاهد أن جزءًا من النص أو الصورة أو الفيديو قد تم إنتاجه باستخدام الذكاء الاصطناعي.

  • يمكن أن يظهر هذا التنويه على شكل جملة قصيرة مثل: "تمت صياغة هذا الملخص باستخدام أداة ذكاء اصطناعي" أو "تم إنشاء الصورة بواسطة خوارزمية توليد الصور".
  • التنويه يضمن ألا يُخدع الجمهور، ويتيح له التعامل مع المحتوى بعين ناقدة.

2. الإفصاح عن حدود الاستخدام

الشفافية لا تعني فقط الإعلان عن وجود الذكاء الاصطناعي، بل أيضًا تحديد حدود استخدامه. على سبيل المثال:

  • إذا كانت الأداة استخدمت فقط لصياغة العناوين أو للتدقيق اللغوي، يجب توضيح ذلك.
  • إذا تولت الأداة إنتاج النص كاملًا مع مراجعة محدودة من الصحفي، يجب ذكر ذلك بوضوح.
    هذا التفصيل يمنع الخلط بين الأدوار، ويحافظ على تميّز العمل الصحفي البشري.

3. سياسات داخلية معلنة

من النماذج المهمة أن تقوم المؤسسات الإعلامية بوضع سياسات تحريرية مكتوبة بخصوص استخدام الذكاء الاصطناعي، وأن تكون هذه السياسات متاحة للجمهور.

  • مثال: بعض الصحف العالمية نشرت وثائق داخلية تشرح ما يمكن استخدام الذكاء الاصطناعي فيه (مثل التدقيق أو إنتاج مسودات أولية)، وما لا يمكن استخدامه فيه (مثل كتابة التحقيقات أو صياغة الاقتباسات).
  • هذه السياسات لا تفيد الجمهور فحسب، بل تضع خطوطًا واضحة للصحفيين أنفسهم.

4. الشرح المبسط لآلية عمل الخوارزميات

قد لا يكون من الممكن شرح كل التفاصيل التقنية المعقدة، لكن من الممكن تقديم تفسيرات مبسطة للجمهور:

  • كيف تختار خوارزميات التوصية الأخبار التي تظهر أولًا؟
  • ما المعايير التي تؤثر في ترتيب النتائج أو في ترشيح الفيديوهات؟
  • ما حدود دقة أدوات الترجمة الآلية أو التعرف الصوتي؟
    هذه الشروح تساعد على رفع الوعي العام، وتقلل من الغموض الذي يحيط بالذكاء الاصطناعي.

5. آليات المراجعة والمساءلة

لكي تكون الشفافية فعّالة، يجب أن تقترن بآليات واضحة للمراجعة والمساءلة. على سبيل المثال:

  • إنشاء لجان مستقلة داخل المؤسسات الإعلامية لمراجعة كيفية استخدام الذكاء الاصطناعي.
  • السماح للجمهور بتقديم شكاوى أو ملاحظات إذا شعر أن المحتوى الآلي تسبب في تضليل أو تحيز.
  • نشر تقارير دورية توضح مدى التزام المؤسسة بالشفافية وبالسياسات المعلنة.

سادسا: السياسات المقترحة لتعزيز الشفافية

1. على مستوى المؤسسات الإعلامية

  • تطوير مدونات سلوك: يجب أن تتبنى كل مؤسسة إعلامية مدونة سلوك واضحة تحدد ما هو مسموح وما هو محظور في استخدام الذكاء الاصطناعي.
  • تدريب الصحفيين: لا يكفي امتلاك الأدوات، بل يجب تدريب الصحفيين على فهمها واستخدامها بشكل مسؤول.
  • تعزيز دور التحرير البشري: يجب التأكيد دائمًا أن الصحفي البشري هو المسؤول الأول عن دقة وصحة المحتوى، حتى إذا كان الذكاء الاصطناعي جزءًا من العملية.

2. على مستوى التشريعات والسياسات العامة

  • يمكن أن تراقب نقابة الصحفيين مدى التزام المؤسسات وتحقق في الشكاوى المتعلقة بالممارسات غير الشفافة.
  • تشجيع الجامعات ومراكز الأبحاث على دراسة أثر الذكاء الاصطناعي في الإعلام، ونشر النتائج بشكل دوري.

الخاتمة

تُظهر التجربة حتى الآن أن الذكاء الاصطناعي بات جزءًا لا يتجزأ من صناعة الإعلام، سواء في جمع الأخبار أو إنتاجها أو توزيعها. لكن السؤال الجوهري لم يعد يتعلق بوجود هذه الأدوات أو غيابها، بل بكيفية إدارتها بشفافية ومسؤولية.

غياب الشفافية لا يهدد فقط مصداقية مؤسسة بعينها، بل يضرب في أساس المهنة الصحفية ذاتها، التي تقوم على الثقة والمساءلة. لذلك، فإن الطريق إلى الأمام يتطلب بناء منظومة متكاملة تضمن:

  • أن يعرف الجمهور متى وكيف يُستخدم الذكاء الاصطناعي.
  • أن يفهم الصحفيون أنفسهم حدود الأدوات التي يعتمدون عليها.
  • أن توجد آليات واضحة للمساءلة عند حدوث أخطاء أو حالات تضليل.

الشفافية هنا ليست ترفًا تنظيريًا، بل شرطًا أساسيًا للحفاظ على المجال العام من الانهيار أمام موجة من المحتوى المولّد آليًا بلا ضوابط. فالصحافة، في جوهرها، هي خدمة عامة، وكلما زادت قدرتها على الوضوح والإفصاح، كلما استطاعت أن تحافظ على ثقة الناس، وتظل ركيزة أساسية في المجتمعات الديمقراطية.

الاصدار التالي
هذا أخر اصدار

المركز الاقليمي للحقوق والحريات

المركز الاقليمى للحقوق و الحريات هى مؤسسة قانونية مصرية تأسست وفقا للاحكام القانون فى يناير 2016 على يد مجموعة من نشطاء حقوق الانسان الشباب حيث تضم مجموعة من المحامين و الباحثين و يعملون من اجل الدفاع عن حقوق الانسان فى مصر و الاقليم و الذين يتخذون من مبادئ حقوق الانسان مرجعا و من العمل السلمى منهجا لضمان حرية الفرد و كرامته . يسعى المركز للوصول إلى مجتمع منفتح وعادل يتيح حرية البحث عن المعلومات وخلق الأفكار وتلقيها والتعبير عنها وتبادلها مع الآخرين دون خوف أو تدخل ظالم من الدولة وذلك بتمكين أفراد المجتمع ومساعدتهم في الحصول على حقوقهم والتمتع بحرياتهم بتمثيل احتياجاتهم أمام الجهات المسؤولة والتأكيد على ضرورة الالتزام بحقوق الانسان وسيادة القانون.

تابعنا على الفيسبوك

روابط سريعة

  • من نحن
  • الوظائف
  • النشرات
  • المدونة
  • التقارير
  • الأوراق البحثية
  • البرامج

ابق على اطلاع!

© جميع الحقوق محفوظة . المركز الاقليمي للحقوق والحريات