محققان (از جمله یک دانشجوی ایرانی) در MIT میگویند که آنها اولین الگوریتم با کارایی اثباتشده را برای آموزش هوش مصنوعی جهت درک تقارن در دادهها ایجاد کردهاند؛ دستاوردی بزرگ که میتواند به مدلهای قدرتمندتر و دقیقتر برای اکتشافات علمی منجر شود.
یک گروه از محققان یک مشکل بنیادی را در یادگیری ماشین (ML) حل کردهاند و اولین روشی را برای مدیریت دادههای متقارن ایجاد کردهاند که کارایی آن هم از نظر محاسباتی و هم از نظر نیاز به داده، تضمین شده است. چالش اصلی این است که هوش مصنوعی به راحتی با تقارن گیج میشود؛ به عنوان مثال، ممکن است یک مولکول چرخانده شده را به عنوان یک شیء کاملاً جدید ببیند به جای اینکه آن را همان ساختار تشخیص دهد.
این تقارنها مهم هستند زیرا نوعی اطلاعات هستند که طبیعت در مورد دادهها به ما میگوید و ما باید آن را در مدلهای یادگیری ماشین خود در نظر بگیریم. ما حالا نشان دادهایم که انجام یادگیری ماشین (ML) با دادههای متقارن به روشی کارآمد ممکن است.
– بهروز طهماسبی، دانشجوی تحصیلات تکمیلی MIT و یکی از نویسندگان اصلی مقاله
در حالی که برخی از مدلهای فعلی مانند شبکههای عصبی گراف (Graph Neural Networks) میتوانند تقارن را مدیریت کنند، محققان به طور کامل درک نکردهاند که چرا آنها اینقدر خوب کار میکنند. این تیم MIT میگوید که رویکرد متفاوتی را در پیش گرفته است — آنها با ترکیب مفاهیم ریاضی از جبر و هندسه، یک الگوریتم جدید طراحی کردهاند تا سیستمی ایجاد کنند که بتواند به طور کارآمد تقارن را یاد گرفته و به آن احترام بگذارد.
این روش با کارایی اثباتشده، به نمونه اطلاعات کمتری برای آموزش نیاز دارد که میتواند دقت و سازگاری یک مدل را بهبود بخشد.
محققان میگویند کار آنها میتواند به توسعه مدلهای هوش مصنوعی قدرتمندتر و با نیاز به منابع کمتر (ارزانتر) برای طیف گستردهای از کاربردها منجر شود، از جمله:
این تحقیق اخیراً در کنفرانس بینالمللی یادگیری ماشین (International Conference on Machine Learning) ارائه شده است.
نظر شما درباره این پیشرفت مهم در زمینه هوش مصنوعی چیست؟