Get News Fast

ويطبق الاتحاد الأوروبي نفس القواعد على الذكاء الاصطناعي

نظراً للتطور السريع والواسع النطاق لتكنولوجيا الذكاء الاصطناعي، ومن أجل منع العواقب السلبية لاستخدام هذه التكنولوجيا، يطبق الاتحاد الأوروبي قواعد موحدة لاستخدامها.

– الأخبار الدولية – وكالة تسنيم للأنباء كتبت قناة “إن تي في” الألمانية في مقال: من التعرف على الوجه إلى الذكاء الاصطناعي تحليل البيانات المالية بسرعة شديدة التطور في مختلف المجالات. لكن استخدام هذه التكنولوجيا ظل منطقة رمادية قانونية حتى الآن. تريد بروكسل الآن تغيير هذا الوضع من خلال مجموعة من قواعد الاتحاد الأوروبي.

وهكذا، سواء في المراقبة بالفيديو أو التعرف على الكلام أو تقييم البيانات المالية، فإن الاتحاد الأوروبي لديه مجموعة موحدة من القواعد لاستخدام الذكاء الاصطناعي. Intelligence.، الذي يحدد قواعد استخدامه ويحظر تطبيقات معينة بناءً على معايير المخاطر.

ومن المقرر أن يوافق البرلمان الأوروبي على قانون الذكاء الاصطناعي يوم الأربعاء. في بروكسل، تعتبر هذه لوائح “تاريخية”، لكن الجمعيات التجارية تخشى فرض قيود على الشركات الناشئة في مجال الذكاء الاصطناعي.

وبموجب هذه القواعد في المستقبل، سيتم تطبيق أنظمة الذكاء الاصطناعي التي تحدد الأشخاص بناءً على معايير مثل وجهات النظر السياسية والدينية، والتوجه الجنسي. أو لون البشرة، فسيتم حظرها.

وبالتالي، لا يُسمح للشركات أيضًا باستخدام الذكاء الاصطناعي لتسجيل مشاعر موظفيها. ولا ينبغي استخدام هذه التكنولوجيا للتأثير على الناس ضد إرادتهم. لا ينبغي أن يكون الأشخاص معرضين للخطر بسبب عمرهم أو إعاقتهم أو وضعهم المالي.

يُسمح أيضًا للشرطة والوكالات الأمنية الأخرى باستخدام تقنية التعرف على الوجه المستندة إلى الذكاء الاصطناعي في الأماكن العامة إذا كان هناك أمر من المحكمة. . وقد تم بالفعل اختبار مثل هذه الأنظمة في ألمانيا في محطة قطار سودكروز في برلين.

إذا تم تسجيل مادة فيديو، فيمكن استخدام التكنولوجيا للبحث عن الأشخاص المدانين أو المشتبه في ارتكابهم جرائم خطيرة. يُسمح للمؤسسات أيضًا باستخدام تقنية التعرف على الوجه “لمنع تهديد إرهابي محدد وحاد”.

يحدد القانون عمومًا “الخطر الكبير” لانتهاكات حقوق الإنسان لاستخدام الذكاء الاصطناعي في المؤسسات الأمنية. يفعل. وينطبق الشيء نفسه على البنية التحتية الحيوية وتطبيقات الموارد البشرية. تتضمن ما يسمى بالتطبيقات عالية المخاطر أيضًا أنظمة يمكنها التأثير على الانتخابات.

في هذه الحالات، يجب أن يكون لدى الإنسان في النهاية سيطرة على قرارات الذكاء الاصطناعي. يتطلب هذا القانون أيضًا التوثيق الفني ونظام إدارة المخاطر. يجب أن يكون المتضررون قادرين على تقديم شكوى ضد استخدام الذكاء الاصطناعي إلى السلطات.

وبالتالي، في المستقبل أيضًا، يجب على المطورين أن يحددوا بوضوح ما إذا كانت النصوص أو الصور أو مقاطع الفيديو تعتمد على هل تعتمد على الذكاء الاصطناعي؟ الذكاء أم لا؟ وينطبق هذا أيضًا على المنشورات على منصات الإنترنت مثل Facebook أو Instagram أو X. ومع ذلك، وفقا للخبراء، من الصعب التحقق من هذه المسألة في الممارسة العملية. وفي الوقت نفسه، تخشى جمعيات الصناعة من أن القواعد الجديدة ستخلق العديد من العقبات أمام تطوير تطبيقات جديدة للذكاء الاصطناعي. وحذر الاتحاد الفيدرالي للصناعات الألمانية من أن هذا قد يضع الشركات الأوروبية في وضع غير مؤاتٍ في التنافس مع المنافسين من الولايات المتحدة والصين.

قد تؤدي انتهاكات قانون الذكاء الاصطناعي إلى فرض غرامات بالملايين على الشركات. ويمكن لمفوضية الاتحاد الأوروبي أن تطلب ما يصل إلى 35 مليون يورو، أو سبعة في المائة من حجم المبيعات العالمية السنوية للشركة، مقابل استخدام التكنولوجيا المحظورة. يجب تغريم أي شخص ينتهك أحكامًا أخرى من القانون بما يصل إلى 15 مليون يورو أو ثلاثة بالمائة من مبيعاته السنوية.

ومع ذلك، لن يتم تطبيق القواعد الجديدة إلا اعتبارًا من ربيع عام 2026. وحتى ذلك الحين، ستعتمد المفوضية على اتفاقيات طوعية مع الشركات. ومع ذلك، يشعر النقاد بالقلق من أن متطلبات الاتحاد الأوروبي هذه قد تصبح قديمة مرة أخرى في غضون عامين.

وهو ما هل ستنجو الوظائف من هجمة الذكاء الاصطناعي؟
تتطلب الهند أدوات الذكاء الاصطناعي للحصول على التراخيص

نهاية الرسالة/

 

© وقد قام مركز ويبانغاه الإخباري بترجمة هذا الخبر من مصدر وكالة تسنیم للأنباء
  • من خلال الانضمام إلى الشبكات الاجتماعية التالية، يمكنك الوصول بسرعة إلى أحدث الأخبار في الفئات المتعلقة بهذه الأخبار وأخبار العالم الأخرى .
  • الأخبار باللغة العربية :
  • من الممكن تلقي الأخبار بذكاء على القنوات الشخصية أو العامة وعرضها على جهات الاتصال على الشبكات الاجتماعية، Bale  Telegram – Instagram – Facebook – X (Twitter) . يرجى الاتصال لاستلام الروبوت.
  • يدعم :         |       
زر الذهاب إلى الأعلى