[ad_1]
سام آلتمن، مدیر عامل OpenAI ChatGPT، روز سهشنبه در برابر اعضای یک کمیته فرعی سنا در مورد نیاز به تنظیم فناوری هوش مصنوعی قدرتمند که در شرکت او و سایرین مانند گوگل و مایکروسافت ایجاد میشود، شهادت داد.
ساعت سه شایعه چندین جنبه از خطراتی که هوش مصنوعی مولد برای جامعه ایجاد می کند، چگونگی تاثیر آن بر بازار کار و چرایی نیاز به مقررات توسط دولت ها را لمس کرد.
جلسه سهشنبه اولین جلسه از مجموعه جلساتی خواهد بود که قانونگذاران با تدوین مقررات هوش مصنوعی برای رسیدگی به نگرانیهای اخلاقی، قانونی و امنیت ملی دست و پنجه نرم میکنند.
در اینجا پنج نکته کلیدی از جلسه استماع وجود دارد:
1. شنوایی با جعلی عمیق باز شد
سناتور ریچارد بلومنتال از کانکتیکات جلسه را با صدای ضبط شده توسط هوش مصنوعی آغاز کرد که دقیقاً شبیه او بود.
«ما اغلب دیدهایم که وقتی فناوری از مقررات پیشی میگیرد چه اتفاقی میافتد. بهره برداری بی رویه از داده های شخصی، گسترش اطلاعات نادرست و تعمیق نابرابری های اجتماعی. دیدیم که چگونه سوگیری الگوریتمی می تواند تبعیض و تعصب را تداوم بخشد و چگونه عدم شفافیت می تواند اعتماد عمومی را تضعیف کند. این آینده ای نیست که ما می خواهیم.
بلومنتال، که رئیس کمیته فرعی سنا در زمینه حریم خصوصی، فناوری و قانون است، فاش کرد که او این اظهارات را ننوشته یا صحبت نکرده است، اما به ربات چت هوش مصنوعی ChatGPT اجازه داده است آنها را ایجاد کند.
دیپ فیک نوعی رسانه مصنوعی است که بر روی رسانه های موجود که شبیه یک شخص واقعی است، آموزش داده می شود.
2. هوش مصنوعی می تواند آسیب قابل توجهی ایجاد کند
سام آلتمناز حضور خود در روز سه شنبه استفاده کرد تا از کنگره بخواهد قوانین جدیدی را بر بیگ فناوری وضع کند، علیرغم اختلافات عمیق سیاسی که برای سال ها قوانین مربوط به تنظیم اینترنت را مسدود کرده است.
آلتمن بزرگترین ترس خود را در مورد هوش مصنوعی به اشتراک گذاشت. او گفت: “بدترین ترس من این است که ما باعث می شویم، ما حوزه، فناوری، صنعت، آسیب قابل توجهی به جهان وارد می کنیم.
من فکر میکنم اگر این فناوری اشتباه پیش برود، ممکن است بسیار اشتباه شود.»
من فکر میکنم اگر این فناوری اشتباه پیش برود، ممکن است بسیار اشتباه شود.»
سام آلتمن، مدیر عامل شرکت مادر ChatGPT OpenAI، بزرگترین ترس های خود را در مورد هوش مصنوعی روز سه شنبه در مقابل کنگره به اشتراک گذاشت.https://t.co/ao01hIx3DS pic.twitter.com/L1ZOk3Y6op
– آسوشیتدپرس (@AP) 16 مه 2023
3. مقررات هوش مصنوعی مورد نیاز است
آلتمن رونق فعلی هوش مصنوعی را به عنوان یک “لحظه مطبوعاتی چاپ” بالقوه توصیف می کند، اما نیاز به احتیاط دارد.
آلتمن گفت: «ما فکر میکنیم که مداخله نظارتی دولتها برای کاهش خطرات مدلهای قدرتمندتر حیاتی خواهد بود.
همچنین کریستینا مونتگومری، نایب رئیس و مدیر ارشد حریم خصوصی و اعتماد IBM و همچنین در روز سه شنبه شهادت دادند. گری مارکوساستاد سابق دانشگاه نیویورک
مونتگومری از کنگره خواست تا «رویکردی دقیق برای مقررات هوش مصنوعی اتخاذ کند. این به معنای ایجاد قوانینی برای کنترل استقرار هوش مصنوعی در موارد استفاده خاص، به جای تنظیم خود فناوری است.
مارکوس از کمیته فرعی خواست تا ایجاد یک آژانس فدرال جدید را برای بررسی برنامه های هوش مصنوعی قبل از انتشار در نظر بگیرد.
مارکوس گفت: «جین های بیشتری از بطری های بیشتری تولید می شود. “اگر می خواهید چیزی را به 100 میلیون نفر ارائه دهید، کسی باید به آن توجه کند.”
4. جایگزینی مشاغل حل نشده باقی می ماند
آلتمن و مونتگومری هر دو گفتند که هوش مصنوعی می تواند برخی از مشاغل را حذف کند اما مشاغل جدیدی را به جای آنها ایجاد کند.
آلتمن گفت: «تأثیری بر مشاغل خواهد داشت. ما سعی میکنیم در این مورد کاملاً شفاف باشیم و فکر میکنم که این امر مستلزم مشارکت صنعت و دولت است، اما عمدتاً اقداماتی از سوی دولت برای کشف اینکه چگونه میخواهیم این موضوع را کاهش دهیم.» اما من در مورد اینکه چقدر مشاغل عالی در آینده خواهند بود بسیار خوشبین هستم.”
مونتگومری گفت: “مهم ترین کاری که باید انجام دهیم این است که نیروی کار را برای مهارت های مرتبط با هوش مصنوعی از طریق آموزش و آموزش آماده کنیم.”
آیا ChatGPT شغل شما و میلیون ها شغل دیگر را در اختیار خواهد گرفت؟
5. اطلاعات غلط و انتخابات آتی آمریکا
آلتمن در پاسخ به این سوال که چگونه هوش مصنوعی مولد می تواند بر رای دهندگان تاثیر بگذارد، گفت که پتانسیل هوش مصنوعی برای دستکاری رای دهندگان و هدف قرار دادن اطلاعات نادرست یکی از “بزرگترین نگرانی های من” است، به ویژه به این دلیل که “سال آینده با یک انتخابات روبرو خواهیم بود.” مدلها بهتر میشوند.»
آلتمن گفت که OpenAI سیاست هایی را برای مقابله با این خطرات اتخاذ کرده است که شامل ممنوعیت استفاده از ChatGPT برای «تولید حجم زیادی از مطالب کمپین» است.
[ad_2]