شرکت OpenAI اخیراً از GPT-5.2-Codex رونمایی کرده است؛ پیشرفتهترین مدل «کدنویسی عاملمحور» (Agentic Coding) که تاکنون برای مهندسی نرمافزار پیچیده و دنیای واقعی ساخته شده است. این مدل برای مدیریت وظایف طولانیمدت، تغییرات بزرگ در کد و گردشهای کاری امنیت سایبری طراحی شده است.
مدل GPT-5.2-Codex برپایه نقاط قوت GPT-5.2 در کارهای دانشبنیان حرفهای و قابلیتهای کدنویسی عاملمحور GPT-5.1-Codex-Max ساخته شده است. این مدل اکنون درک زمینه طولانی، فراخوانی ابزار قابلاعتماد، واقعیتسنجی بهبودیافته و فشردهسازی زمینه بومی را ارائه میدهد که آن را به یک شریک قابلاتکا برای وظایف کدنویسی طولانیمدت تبدیل میکند و درعینحال از نظر مصرف توکن، بهینه باقی میماند.
عملکرد و قابلیتهای کلیدی آن شامل موارد زیر است:
این مدل همچنین قادر است اسکرینشاتها، دیاگرامهای فنی، نمودارها و سطوح رابط کاربری را تفسیر کند. این ویژگی به آن امکان میدهد تا طرحهای اولیه (mockups) را به نمونههای اولیه کاربردی تبدیل کرده و به توسعهدهندگان در رساندن نمونههای اولیه به مرحله تولید کمک کند.
عملکرد این مدل در ارزیابیهای امنیت سایبری، یک جهش قابلتوجه در تواناییها را از GPT-5-Codex به GPT-5.1-Codex-Max و اکنون به GPT-5.2-Codex نشان میدهد. OpenAI مدلها را بهگونهای ارزیابی میکند که گویی میتوانند در آینده به سطح «بالا» از قابلیتهای امنیت سایبری برسند و تمهیدات حفاظتی را برای مدیریت ریسک استفاده دوگانه (Dual-use Risk) اضافه کرده است.
در یک نمونه واقعی، در تاریخ ۱۱ دسامبر ۲۰۲۵، تیم React سه آسیبپذیری امنیتی را فاش کرد. «اندرو مکفرسون»، یک مهندس ارشد امنیت، از GPT-5.1-Codex-Max برای مطالعه یک آسیبپذیری حیاتی قبلی در React به نام React2Shell استفاده کرد. او پس از شکست تحلیلهای اولیه، مدل را از طریق گردشهای کاری استاندارد امنیت دفاعی، مانند راهاندازی یک محیط آزمایشی محلی و استدلال در مورد سطوح حمله، هدایت کرد. درنهایت، Codex رفتارهای غیرمنتظرهای را کشف کرد که منجر به شناسایی آسیبپذیریهای ناشناخته جدیدی شد. این موارد نشان میدهند که چگونه هوش مصنوعی پیشرفته میتواند کارهای امنیت دفاعی را تسریع بخشد و درعینحال، خطر سوءاستفاده توسط عوامل مخرب را نیز برجسته میکند.
OpenAI درحال اجرای یک برنامه آزمایشی «دسترسی مورد اعتماد» (trusted access) است تا به کاربران و سازمانهای واجد شرایط اجازه دهد از قابلیتهای هوش مصنوعی پیشرفته برای اهداف دفاعی استفاده کنند. این برنامه آزمایشی که فقط با دعوتنامه در دسترس است، برای متخصصان امنیتی تأییدشده با سابقه افشای مسئولانه و سازمانهایی با موارد استفاده روشن در حوزه امنیت سایبری طراحی شده است.
مدل GPT-5.2-Codex از امروز در تمام سطوح Codex برای کاربران پولی ChatGPT در دسترس است. انتظار میرود دسترسی از طریق API در هفتههای آینده فراهم شود.
بهنظر شما این مدل جدید هوش مصنوعی تا چه حد میتواند به افزایش امنیت دنیای نرمافزار کمک کند؟