بدافزار ایجاد شده توسط ChatGPT توسط ابزارهای امنیتی شناسایی نمی شود



چت ربات هوش مصنوعی ChatGPT قادر به نوشتن بدافزار پیچیده است که حتی با کمک ابزارهای امنیتی پیشرفته قابل شناسایی نیست. به گزارش سرویس فناوری و فناوری خبری تکنا، هوش مصنوعی کیتی در انجام وظایف مختلف مهارت های زیادی دارد. یکی از آنها نوشتن بدافزار با هدف از بین بردن رایانه ها خواهد بود. شرکت امنیتی CyberArk گزارشی منتشر کرده است که نشان می دهد چت بات توسعه یافته توسط OpenAI می تواند در ایجاد بدافزار بسیار حرفه ای باشد. بدافزار ایجاد شده توسط این چت بات بسیار پیچیده است و می تواند آسیب زیادی به سخت افزار مورد نظر وارد کند. پیش از این کارشناسان اینفوسک در مورد خطرات احتمالی سوء استفاده از این هوش مصنوعی در گسترش جرایم سایبری هشدار داده بودند. البته این چت بات هنوز برای ایجاد بدافزار پیچیده استفاده نشده است. به گزارش Gizmodo، کد نوشته شده توسط این چت بات نشان می دهد که این هوش مصنوعی قادر به دور زدن محصولات امنیتی است. این هوش مصنوعی قادر به ایجاد ویروس هایی مانند ویروس پلی مورفیک است. این ویروس نوعی بدافزار برنامه ریزی شده است که ابزارهای امنیتی سنتی قادر به شناسایی آن نیستند. اگر این چت بات دارای فیلترهایی برای جلوگیری از درخواست های کاربران مانند ایجاد بدافزار است، اما محققان امنیتی می گویند که با اصرار بر دستورات زیر توانسته اند این فیلترها را دور بزنند.

دیدگاهتان را بنویسید