پنج نکته کلیدی از جلسه استماع سم آلتمن، مدیر عامل OpenAI در سنا | اخبار فناوری

[ad_1]

سام آلتمن، مدیر عامل OpenAI ChatGPT، روز سه‌شنبه در برابر اعضای یک کمیته فرعی سنا در مورد نیاز به تنظیم فناوری هوش مصنوعی قدرتمند که در شرکت او و سایرین مانند گوگل و مایکروسافت ایجاد می‌شود، شهادت داد.

ساعت سه شایعه چندین جنبه از خطراتی که هوش مصنوعی مولد برای جامعه ایجاد می کند، چگونگی تاثیر آن بر بازار کار و چرایی نیاز به مقررات توسط دولت ها را لمس کرد.

جلسه سه‌شنبه اولین جلسه از مجموعه جلساتی خواهد بود که قانون‌گذاران با تدوین مقررات هوش مصنوعی برای رسیدگی به نگرانی‌های اخلاقی، قانونی و امنیت ملی دست و پنجه نرم می‌کنند.

در اینجا پنج نکته کلیدی از جلسه استماع وجود دارد:

1. شنوایی با جعلی عمیق باز شد

سناتور ریچارد بلومنتال از کانکتیکات جلسه را با صدای ضبط شده توسط هوش مصنوعی آغاز کرد که دقیقاً شبیه او بود.

«ما اغلب دیده‌ایم که وقتی فناوری از مقررات پیشی می‌گیرد چه اتفاقی می‌افتد. بهره برداری بی رویه از داده های شخصی، گسترش اطلاعات نادرست و تعمیق نابرابری های اجتماعی. دیدیم که چگونه سوگیری الگوریتمی می تواند تبعیض و تعصب را تداوم بخشد و چگونه عدم شفافیت می تواند اعتماد عمومی را تضعیف کند. این آینده ای نیست که ما می خواهیم.

بلومنتال، که رئیس کمیته فرعی سنا در زمینه حریم خصوصی، فناوری و قانون است، فاش کرد که او این اظهارات را ننوشته یا صحبت نکرده است، اما به ربات چت هوش مصنوعی ChatGPT اجازه داده است آنها را ایجاد کند.

دیپ فیک نوعی رسانه مصنوعی است که بر روی رسانه های موجود که شبیه یک شخص واقعی است، آموزش داده می شود.

2. هوش مصنوعی می تواند آسیب قابل توجهی ایجاد کند

سام آلتمناز حضور خود در روز سه شنبه استفاده کرد تا از کنگره بخواهد قوانین جدیدی را بر بیگ فناوری وضع کند، علیرغم اختلافات عمیق سیاسی که برای سال ها قوانین مربوط به تنظیم اینترنت را مسدود کرده است.

آلتمن بزرگترین ترس خود را در مورد هوش مصنوعی به اشتراک گذاشت. او گفت: “بدترین ترس من این است که ما باعث می شویم، ما حوزه، فناوری، صنعت، آسیب قابل توجهی به جهان وارد می کنیم.

من فکر می‌کنم اگر این فناوری اشتباه پیش برود، ممکن است بسیار اشتباه شود.»

3. مقررات هوش مصنوعی مورد نیاز است

آلتمن رونق فعلی هوش مصنوعی را به عنوان یک “لحظه مطبوعاتی چاپ” بالقوه توصیف می کند، اما نیاز به احتیاط دارد.

آلتمن گفت: «ما فکر می‌کنیم که مداخله نظارتی دولت‌ها برای کاهش خطرات مدل‌های قدرتمندتر حیاتی خواهد بود.

همچنین کریستینا مونتگومری، نایب رئیس و مدیر ارشد حریم خصوصی و اعتماد IBM و همچنین در روز سه شنبه شهادت دادند. گری مارکوساستاد سابق دانشگاه نیویورک

مونتگومری از کنگره خواست تا «رویکردی دقیق برای مقررات هوش مصنوعی اتخاذ کند. این به معنای ایجاد قوانینی برای کنترل استقرار هوش مصنوعی در موارد استفاده خاص، به جای تنظیم خود فناوری است.

مارکوس از کمیته فرعی خواست تا ایجاد یک آژانس فدرال جدید را برای بررسی برنامه های هوش مصنوعی قبل از انتشار در نظر بگیرد.

مارکوس گفت: «جین های بیشتری از بطری های بیشتری تولید می شود. “اگر می خواهید چیزی را به 100 میلیون نفر ارائه دهید، کسی باید به آن توجه کند.”

4. جایگزینی مشاغل حل نشده باقی می ماند

آلتمن و مونتگومری هر دو گفتند که هوش مصنوعی می تواند برخی از مشاغل را حذف کند اما مشاغل جدیدی را به جای آنها ایجاد کند.

آلتمن گفت: «تأثیری بر مشاغل خواهد داشت. ما سعی می‌کنیم در این مورد کاملاً شفاف باشیم و فکر می‌کنم که این امر مستلزم مشارکت صنعت و دولت است، اما عمدتاً اقداماتی از سوی دولت برای کشف اینکه چگونه می‌خواهیم این موضوع را کاهش دهیم.» اما من در مورد اینکه چقدر مشاغل عالی در آینده خواهند بود بسیار خوشبین هستم.”

مونتگومری گفت: “مهم ترین کاری که باید انجام دهیم این است که نیروی کار را برای مهارت های مرتبط با هوش مصنوعی از طریق آموزش و آموزش آماده کنیم.”

تصویری از افرادی که در ایستگاه های کاری کامپیوتر کار می کنند با یک میز بدون مراقبت

آیا ChatGPT شغل شما و میلیون ها شغل دیگر را در اختیار خواهد گرفت؟

5. اطلاعات غلط و انتخابات آتی آمریکا

آلتمن در پاسخ به این سوال که چگونه هوش مصنوعی مولد می تواند بر رای دهندگان تاثیر بگذارد، گفت که پتانسیل هوش مصنوعی برای دستکاری رای دهندگان و هدف قرار دادن اطلاعات نادرست یکی از “بزرگترین نگرانی های من” است، به ویژه به این دلیل که “سال آینده با یک انتخابات روبرو خواهیم بود.” مدل‌ها بهتر می‌شوند.»

آلتمن گفت که OpenAI سیاست هایی را برای مقابله با این خطرات اتخاذ کرده است که شامل ممنوعیت استفاده از ChatGPT برای «تولید حجم زیادی از مطالب کمپین» است.



[ad_2]