قانون الذكاء الاصطناعي الأول في العالم يدخل حيز التنفيذ

01 اغسطس 2024
مقر مفوضية الاتحاد الأوروبي في بروكسل، 16 يونيو 2023(Getty)
+ الخط -
اظهر الملخص
- دخل قانون الذكاء الاصطناعي الأوروبي حيز التنفيذ، ليحمي حقوق المواطنين ويشجع على الاستثمار والابتكار في الذكاء الاصطناعي.
- يغطي القانون أي منتج أو خدمة تستخدم الذكاء الاصطناعي في الاتحاد الأوروبي، ويعتبر نموذجاً لحكومات أخرى.
- يستند القانون إلى أربع فلسفات رئيسية: الشفافية، الامتثال الصارم للأنظمة عالية المخاطر، حظر الأنظمة ذات المخاطر غير المقبولة، وعدم فرض التزامات على الأنظمة ذات المخاطر الأدنى.

دخل قانون الذكاء الاصطناعي الأول من نوعه رسمياً حيز التنفيذ من بوابة الاتحاد الأوروبي، ليمثل أول عتبة في جهود الكتلة لتنظيم التكنولوجيا. ويقول مسؤولون إن قانون الذكاء الاصطناعي من شأنه أن يحمي "حقوق المواطنين الأساسية" في الكتلة المكونة من 27 دولة بينما يشجع على الاستثمار والابتكار في الصناعة الواعدة للذكاء الاصطناعي.

ويغطي القانون أي منتج أو خدمة تقدم في الاتحاد الأوروبي وتستخدم الذكاء الاصطناعي، سواء كانت من شركة تكنولوجية عملاقة في وادي السيليكون أو من شركة محلية ناشئة. ويُعتبر القانون كتيباً إرشادياً شاملاً ليحكم الصناعة في أوروبا، وقد يمثل أيضاً نموذجاً يحتذى به لحكومات أخرى ما زالت تنظر وتدرس وضع قوانينها الخاصة للذكاء الاصطناعي المتطور بشكل سريع.

مختصر قانون الذكاء الاصطناعي الأوروبي

قانون الذكاء الاصطناعي الأوروبي اقترحته المفوضية الأوروبية في إبريل/نيسان 2021، ووافق عليه البرلمان الأوروبي والمجلس في ديسمبر/كانون الأول 2023. ويعالج قانون الذكاء الاصطناعي المخاطر المحتملة على صحة المواطنين وسلامتهم وحقوقهم الأساسية، ويفرض على المطورين والمستخدمين متطلبات والتزامات واضحة في ما يتعلّق باستخدامات محددة للذكاء الاصطناعي مع تقليل الأعباء الإدارية والمالية للشركات.

ويقدم قانون الذكاء الاصطناعي إطاراً موحداً في جميع دول الاتحاد الأوروبي، ويستند إلى أربع فلسفات رئيسية هي:

  • مخاطر الشفافية: يجب أن تبلغ أنظمة مثل برامج الدردشة الآلية المستخدمين بوضوح بأنهم يتفاعلون مع آلة، فيما يجب وضع علامة على بعض المحتوى الذي أنشأه الذكاء الاصطناعي.
  • المخاطر العالية: يجب أن تمتثل أنظمة الذكاء الاصطناعي عالية المخاطر، مثل البرامج الطبية القائمة على الذكاء الاصطناعي أو أنظمة الذكاء الاصطناعي المستخدمة في التوظيف، لمتطلبات صارمة، بما في ذلك أنظمة تخفيف المخاطر، وجودة عالية لمجموعات البيانات، ومعلومات المستخدم الواضحة، والإشراف البشري، وما إلى ذلك.
  • المخاطر غير المقبولة: على سبيل المثال، تعتبر أنظمة الذكاء الاصطناعي التي تسمح بمنح علامات تقيّم السمعة الاجتماعية من قبل الحكومات أو الشركات تهديداً واضحاً لحقوق الناس الأساسية وبالتالي يجب حظرها.
  • أدنى قدر من المخاطر: لا تواجه معظم أنظمة الذكاء الاصطناعي مثل فلاتر البريد العشوائي وألعاب الفيديو التي تدعم الذكاء الاصطناعي أي التزام بموجب قانون الذكاء الاصطناعي، ولكن يمكن للشركات أن تتبنى طواعية قواعد سلوك إضافية.

(أسوشييتد برس، العربي الجديد)

المساهمون