هکری با فریب ChatGPT، از آن دستورالعمل ساخت بمب دست‌ساز گرفت

خبرگزاری هامونیه

چت‌بات‌ها مانند ChatGPT با دستورالعمل‌ها و موانع حفاظتی طراحی شده‌اند که به‌عنوان مثال به سؤالات مربوط به ساخت بمب خانگی پاسخ نمی‌دهند. اما اکنون یک هکر راهی برای فریب دادن ChatGPT پیدا کرده است تا چت‌باتِ OpenAI دستورالعمل‌ها و مسئولیت‌های اخلاقی خود را برای ارائه آموزش تولید مواد منفجره نادیده بگیرد.

📌 حتما بخوانید: در نشست بررسی نظام‌نامه رمزارز مطرح شد: تاکید بر حاکمیت سند مرکز ملی فضای مجازی بر مصوبه بانک مرکزی

تکنیک مورداستفاده برای فریب ChatGPT

براساس گزارش تک‌کرانچ، این هکر که با نام «آمادون» (Amadon) شناخته می‌شود، از طریق دستوری مبنی بر «انجام یک بازی» توانسته ChatGPT را برای ارائه دستور ساخت بمب فریب دهد. هکر در تکنیک خود از چند دستور استفاده کرده است تا چت‌بات یک دنیای کاملاً فانتزی و علمی‌تخیلی بسازد که دستورالعمل‌های ایمنی ChatGPT در آن اعمال نمی‌شوند.

📌 حتما بخوانید: اپل ظاهراً عینک هوشمند جدیدی برای رقابت با عینک‌های ری‌بن متا می‌سازد

در طول گفتگوی بین این هکر و چت‌بات، ChatGPT چندین بار مواد لازم برای ساخت مواد منفجره را به او ارائه کرده است.

ChatGPT در توضیحات خود گفته است این مواد را می‌توان برای ساخت «مواد منفجره قدرتمندی که می‌تواند در مین‌ها، تله‌ها یا وسایل انفجاری دست‌ساز (IED) استفاده شوند» با یکدیگر ترکیب کرد. در ادامه نیز دستورالعمل‌های بیشتری درباره ساخت «میدان‌های مین» و «مواد منفجر به سبک کلیمور» ارائه شده است.

📌 حتما بخوانید: زبان الکترونیکی هوشمند، راه‌حل محققان برای تشخیص سریع فساد و آلودگی در مواد غذایی

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

آخرین خبرها

سایر خبرها