7 شرکت هوش مصنوعی موافقت کردند پس از فشار کاخ سفید محافظت کنند


هفت شرکت پیشرو هوش مصنوعی در ایالات متحده موافقت کردند که داوطلبانه از توسعه فناوری خود دفاع کنند. کاخ سفید روز جمعه این خبر را اعلام کرد. متعهد شوید که برای ایمنی، امنیت و اعتماد تلاش کنید. حتی اگر برای پتانسیل هوش مصنوعی رقابت کنند.

هفت شرکت – آمازون، آنتروپیک، گوگل، Inflection، Meta، مایکروسافت و OpenAI – به طور رسمی در نشستی با رئیس جمهور بایدن در کاخ سفید بعدازظهر جمعه تعهد خود را به استاندارد جدید اعلام خواهند کرد.

این اعلام در حالی منتشر می‌شود که شرکت‌ها با نسخه‌هایی از هوش مصنوعی که ابزارهای جدید قدرتمندی را برای ایجاد متن، عکس، موسیقی و ویدیو بدون دخالت انسان ارائه می‌دهند، رقابت می‌کنند. اما جهش های تکنولوژیکی این نگرانی را ایجاد کرده است که چنین ابزارهایی انتشار اطلاعات نادرست و هشدارهای وحشتناک را تسهیل کنند. “آسیب پذیر در برابر انقراض” با تکامل رایانه های خودآگاه.

روز چهارشنبه، شرکت مادر فیس‌بوک، متا، ابزار هوش مصنوعی خود، Llama 2 را معرفی کرد و گفت که کد پایه خود را به صورت عمومی منتشر خواهد کرد. نیک کلگ، رئیس امور جهانی متا، در بیانیه‌ای گفت: شرکت او از پادمان های توسعه یافته توسط کاخ سفید پشتیبانی می کند.

کلگ گفت: “ما خوشحالیم که این تعهدات داوطلبانه را با سایرین در این بخش به اشتراک می گذاریم.” پيگيري كردن.”

پادمان های داوطلبانه که روز جمعه اعلام شد، تنها اولین قدمی است که واشنگتن و دولت های سراسر جهان چارچوب قانونی و نظارتی را برای توسعه هوش مصنوعی تنظیم می کنند. مقامات کاخ سفید گفتند که دولت در حال کار بر روی یک فرمان اجرایی است که فراتر از اعلام روز جمعه است و از توسعه قوانین دو حزبی حمایت می کند.

مدیریت در بیانیه ای با اعلام این معامله گفت: «شرکت هایی که این فناوری های نوظهور را توسعه می دهند، مسئول اطمینان از ایمن بودن محصولات خود هستند. در این بیانیه آمده است که شرکت ها باید بالاترین استانداردها را حفظ کنند تا اطمینان حاصل شود که نوآوری حقوق و ایمنی آمریکایی ها را به خطر نمی اندازد.

بخشی از معامله است. شرکت موافقت می کند:

  • تست ایمنی محصولات هوش مصنوعی توسط برخی کارشناسان مستقل. و برای به اشتراک گذاشتن اطلاعات در مورد محصولات خود با دولت ها و سایر نهادها. تلاش برای مدیریت ریسک های تکنولوژی

  • اطمینان حاصل کنید که مصرف کنندگان می توانند محتوای تولید شده توسط هوش مصنوعی را با استفاده از واترمارک یا سایر ابزارهای شناسایی محتوای تولید شده شناسایی کنند.

  • به طور منظم قابلیت ها و محدودیت های سیستم های خود را به صورت عمومی گزارش دهند. از جمله خطرات امنیتی و شواهد سوگیری.

  • استفاده از ابزارهای پیشرفته هوش مصنوعی برای مقابله با بزرگترین چالش های جامعه، مانند درمان سرطان و مبارزه با تغییرات آب و هوایی.

  • تحقیقاتی در مورد خطر سوگیری انجام داد. تبعیض و تجاوز به حریم خصوصی ناشی از گسترش ابزارهای هوش مصنوعی.

تاریخچه هوش مصنوعی نشان دهنده جدی بودن و شیوع این خطرات است. و شرکت ها متعهد به راه اندازی هوش مصنوعی هستند که این تاثیرات را کاهش دهد.

بعید است که این معامله تلاش ها برای قانون گذاری و تنظیم فناوری نوظهور را کند کند. قانونگذاران در واشنگتن در حال رقابت برای رسیدن به پیشرفت های سریع هوش مصنوعی هستند. و دولت های دیگر نیز همین کار را می کنند.

ماه گذشته، اتحادیه اروپا به سرعت در حال بررسی گسترده‌ترین تلاش‌های خود برای تنظیم این فناوری بود. قانونی که توسط پارلمان اروپا پیشنهاد شده است، استفاده های خاصی از هوش مصنوعی از جمله تشخیص چهره را به شدت محدود خواهد کرد. و به شرکت ها نیاز خواهد داشت باید اطلاعات اضافی در مورد محصولات خود را افشا کند.

دیدگاهتان را بنویسید