[ad_1]
این هشدار به دنبال نامه ای سرگشاده در اوایل سال جاری است که خواستار توقف شش ماهه توسعه هوش مصنوعی شده بود.
تایپه، تایوان – دانشمندان پیشرو و فناوران کامپیوتر هشدار داده اند که هوش مصنوعی یک “خطر انقراض” است که نیازمند اقدام جهانی است.
گروهی از کارشناسان هوش مصنوعی و دیگر شخصیتهای ارشد در بیانیهای کوتاه که توسط مرکز ایمنی هوش مصنوعی منتشر شد، گفتند: کاهش خطر انقراض ناشی از هوش مصنوعی باید در کنار سایر خطرات اجتماعی مانند بیماریهای همهگیر و جنگ هستهای یک اولویت جهانی باشد. در سانفرانسیسکو تحقیقات و گروه حمایت روز سه شنبه.
امضاکنندگان شامل کارشناسان فناوری مانند سام آلتمن، مدیر عامل OpenAI، جفری هینتون، معروف به «پدرخوانده هوش مصنوعی» و آدری تانگ، وزیر دیجیتال تایوان، و همچنین چهرههای برجسته دیگری از جمله سم هریس، عصبشناس و گرایمز، موسیقیدان هستند.
این هشدار به دنبال نامه سرگشاده ای است که توسط ایلان ماسک و سایر شخصیت های ارشد در ماه مارس امضا شد و خواستار توقف شش ماهه در توسعه هوش مصنوعی پیشرفته تر از GPT-4 OpenAI شد.
در این نامه آمده است: «سیستمهای قدرتمند هوش مصنوعی تنها زمانی باید توسعه یابند که مطمئن شویم اثرات آنها مثبت و خطرات آنها قابل کنترل خواهد بود».
توسعه سریع هوش مصنوعی نگرانی هایی را در مورد پیامدهای منفی بالقوه برای جامعه ایجاد کرده است، از از دست دادن گسترده مشاغل و نقض حق چاپ گرفته تا انتشار اطلاعات نادرست و بی ثباتی سیاسی. برخی از کارشناسان ابراز نگرانی کرده اند که ممکن است روزی بشریت کنترل تکنولوژی را از دست بدهد.
در حالی که هوش مصنوعی فعلی هنوز به هوش عمومی مصنوعی (AGI) دست نیافته است و به طور بالقوه به آن اجازه می دهد تا تصمیمات مستقلی بگیرد، محققان مایکروسافت در ماه مارس گفتند که GPT-4 “جرقه های AGI” را نشان می دهد و قادر به حل “کارهای جدید و دشواری است که ریاضیات را در بر می گیرد. کدنویسی، چشم انداز، پزشکی، حقوق، روانشناسی و غیره بدون نیاز به تذکر خاص».
از آن زمان، هشدارها در مورد خطرات احتمالی هوش مصنوعی افزایش یافته است.
ماه گذشته، هینتون، دانشمند مشهور کامپیوتر، کار خود را در گوگل رها کرد تا بتواند زمان بیشتری را برای دفاع در برابر خطرات هوش مصنوعی صرف کند.
آلتمن در اوایل ماه جاری در حضور در کنگره ایالات متحده از قانونگذاران خواست تا به سرعت مقرراتی را برای فناوری هوش مصنوعی تدوین کنند و یک رویکرد مبتنی بر مجوز را توصیه کرد.
ایالات متحده و سایر کشورها در تلاش هستند تا قوانینی را ارائه کنند که نیاز به نظارت را با فناوری امیدوارکننده متعادل کند.
اتحادیه اروپا اعلام کرده است که امیدوار است تا پایان سال قانونی را برای طبقهبندی هوش مصنوعی به چهار دسته مبتنی بر ریسک تصویب کند.
چین همچنین اقداماتی را برای تنظیم هوش مصنوعی انجام داده است، قوانینی را تصویب کرده است که تقلبی های عمیق را تنظیم می کند و شرکت ها را ملزم می کند تا الگوریتم های خود را در تنظیم کننده ها ثبت کنند.
پکن همچنین قوانین سختگیرانهای را برای محدود کردن محتوای حساس سیاسی پیشنهاد کرده است و از توسعهدهندگان میخواهد قبل از انتشار فناوری مولد مبتنی بر هوش مصنوعی تأییدیه دریافت کنند.
[ad_2]