اولویت‌های جدید OpenAI در توسعه محصولات؛ ایمنی قربانی سرعتِ پیشرفت می‌شود؟

شنبه ۲۳ فروردین ۱۴۰۴ - ۰۸:۵۶
مطالعه 2 دقیقه
لوگو OpenAI در پشت یک فرد با گوشی
آیا OpenAI در رقابت با رقبای نوظهور، ایمنی را فدای سرعت می‌کند؟ پشت‌پرده‌ی عجله‌ی این شرکت برای انتشار سریع‌تر مدل‌های پیشرفته چیست؟
تبلیغات

سال گذشته پس از برکناری سم آلتمن، مدیرعامل OpenAI به‌دلیل نداشتن «صداقت مداوم»، چندین مدیر ارشد ازجمله یان لیکه، مدیر سابق بخش هم‌راستایی، این شرکت را ترک کردند.

لیکه در اظهارات خود تصریح کرد که درباره‌ی استراتژی ایمنی با رهبری OpenAI اختلاف نظر دارد و از نظر او فرهنگ و فرایندهای ایمنی در اولویت‌های شرکت به حاشیه رانده شده‌اند؛ آن‌ هم در شرایطی که تمرکز اصلی روی محصولات پرزرق‌وبرقی مثل هوش مصنوعی عمومی (AGI) قرار گرفته است.

اگرچه OpenAI ادعاهای لیکه را نپذیرفت، اما گزارش فایننشال تایمز این موضوع را تأیید می‌کند که فرایندهای ایمنی OpenAI با هدف عرضه‌ی سریع‌تر محصولات پیشرفته، کنار گذاشته شده‌اند.

گفته می‌شود OpenAI زمان اختصاص‌داده‌شده برای تست‌های ایمنی مدل‌های پرچم‌دار خود را به‌طور چشمگیری کاهش داده است. منبع گزارش توضیح می‌دهد که تست‌ها نسبت به گذشته سطحی‌تر شده‌اند و تیم‌ها زمان و منابع کمتری برای شناسایی و کاهش خطرات احتمالی در اختیار داشته‌اند.

تغییر استراتژی OpenAI، تلاش آشکاری برای حفظ برتری در رقابت فشرده‌ی دنیای هوش مصنوعی محسوب می‌شود، به‌ویژه با ظهور شرکت‌های جدیدی مانند دیپ‌سیک چین که مدل‌هایی با عملکرد بهتر و هزینه‌ی توسعه‌ی پایین‌تر منتشر کرده‌اند.

یکی از افراد مطلع درباره‌ی توسعه‌ی مدل o3 شرکت OpenAI می‌گوید: «وقتی این فناوری هنوز اهمیت فعلی را نداشت، تست‌های ایمنی دقیق‌تری داشتیم.» منبع مذکور تأکید کرد که هرچه مدل‌ها قدرتمندتر می‌شوند، تهدید آن‌ها نیز بیشتر می‌شود. به‌هرحال به‌دلیل حجم بالای تقاضا برای این مدل‌ها، شرکت به‌دنبال عرضه‌ی سریع‌تر آن‌ها است.

بر اساس گمانه‌زنی‌ها، OpenAI احتمالاً مدل o3 را هفته‌ی آینده منتشر خواهد کرد و تیم‌های امنیتی فقط چند روز برای تست و بررسی ایمنی مدل مذکور در اختیار خواهند داشت.

این اولین‌بار نیست که OpenAI به‌دلیل شتاب‌زدگی در فرایندهای ایمنی زیر ذره‌بین می‌رود. در سال ۲۰۲۴، گزارش مستقل دیگری نشان داد که این شرکت در انتشار GPT-4o هم چنین رویکردی داشته است و فرصت محدودی برای تست مدل به تیم ایمنی داده بود.

از موارد عجیب‌تر اینکه دعوت‌نامه‌ی جشن انتشار محصول جدید OpenAI پیش از انجام تست‌های ایمنی ارسال شده بود. منبع داخلی این موضوع را این‌طور توصیف کرد: «مهمانی پس‌ از انتشار را برنامه‌ریزی کرده بودند؛ درحالی‌که هنوز اطمینان نداشتند مدل جدید ایمنی لازم را برای انتشار دارد.»

در مقام مقایسه، آزمایش‌های ایمنی GPT-4 حدود ۶ ماه طول کشید و خطرات بالقوه‌ی مدل فقط پس از دو ماه تست فاش شد. منبع دیگری صراحتاً گفت: «آن‌ها به‌هیچ‌وجه ایمنی عمومی را در اولویت قرار نمی‌دهند.»

مقاله رو دوست داشتی؟
نظرت چیه؟
داغ‌ترین مطالب روز
تبلیغات

نظرات

با چشم باز خرید کنید
زومیت شما را برای انتخاب بهتر و خرید ارزان‌تر راهنمایی می‌کند
ورود به بخش محصولات