اسباب‌بازی‌های هوشمند مانند نیسان اسباب بازی جونیور می‌توانند قرار گرفتن کودکان در معرض خطرات ایمنی آنلاین را تشدید کنند.

مانند خطرات «محتوا» (مثلا قرار گرفتن در معرض مواد مضر یا نامناسب با سن)؛ خطرات «تماس» (مثلا قرار گرفتن در معرض تماس ناخواسته بزرگسالان).

خطرات «رفتار» (مثلاً قلدری سایبری)؛ و خطرات «قرارداد» (مانند جمع آوری داده ها، فشار تجاری و تشویق به قمار)” همانطور که توسط بنیاد 5Rights تعریف شده است.

مکانیسم‌های قانونی در سطح بین‌المللی بر تکثیر اسباب‌بازی‌های مجهز به هوش مصنوعی و کاهش چنین خطراتی حاکم است.

قانون امنیت سایبری اتحادیه اروپا حداقل الزامات را برای توسعه دهندگان اسباب بازی های هوشمند در نظر می گیرد، که باید اسباب بازی هایی را طراحی کنند که ویژگی های امنیت سایبری قوی را هنگام عرضه محصولات در اتحادیه اروپا نشان دهند.

قانون هوش مصنوعی اروپا، که انتظار می‌رود در سال 2024 اجرایی شود، یک چارچوب ریسک چهار سطحی را برای ارزیابی فناوری‌های هوش مصنوعی معرفی می‌کند و همچنین از نوآوران اسباب‌بازی هوشمند می‌خواهد تأثیر سیستم‌های هوش مصنوعی خود را در برابر «سوءاستفاده‌های قابل پیش‌بینی منطقی» ارزیابی کنند.

-اسباب‌بازی‌های هوشمند فعال که از کودکان استثمار می‌کنند کاملاً توسط مقررات ممنوع شده‌اند. قانون خدمات دیجیتال اتحادیه اروپاهمچنین با ممنوع کردن تبلیغات هدفمند مبتنی بر هوش مصنوعی از طریق پروفایل کردن کودکان از جوانان محافظت می کند.

یک قانون فدرال ایالات متحده، قانون حفاظت از حریم خصوصی آنلاین کودکان (COPPA)، معیارهای دسترسی متناسب با سن و تبادل محتوا در وب سایت ها را به عنوان یک الزام تعیین می کند.

FTC اخیراً همچنین یک برنامه برچسب گذاری امنیت سایبری را برای محافظت از مصرف کنندگان در برابر نقض سیستم هوش مصنوعی معرفی کرده است.

جعبه ابزار هوش مصنوعی انجمن جهانی اقتصاد ابزار دیگری برای تشویق شرکت‌ها به نوآوری اسباب‌بازی‌های مبتنی بر هوش مصنوعی با محافظت بهتر از منافع کودکان و جوانان است.

در حالی که قوانین و اقداماتی وجود دارد که بر انتشار اسباب‌بازی‌های هوشمند نظارت می‌کند، ممکن است این قوانین برای ایجاد انگیزه برای نوآوری محصولات مبتنی بر رشد کودک کوتاهی کنند.

بدون دیدگاه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *