IPImen ، Firewall ، NGFirewall-UTM، آیپی ایمن، فایروال ایرانی ، فایروال بومی، یوتی ام بومی، یوتی ام ایرانی، فایروال نسل بعدی ایرانی، فایروال نسل بعدی بومی

خطا‌ها و توهمات هوش مصنوعی در کدنویسی، ایجاد اتهام و استنادات قانونی

اخبار داغ فناوری اطلاعات و امنیت شبکه

takian.ir ai hallucinations in coding defamation and legal citations
‌هوش مصنوعی مستعد ایجاد خطا است و این خطا‌ها هم خودشان را نشان داده و هم در حال حاضر مورد اعتراض قرار‌ گرفته اند.

خطا‌ها و توهمات ChatGPT
محققان Vulcan Cyber هشدار می‌دهند که مهاجمان می‌توانند از ChatGPT برای فریب توسعه‌دهندگان برای نصب پکیج‌های مخرب استفاده کنند.

محققان با اشاره به اینکه توسعه‌دهندگان شروع به استفاده از ChatGPT برای کمک به کدنویسی کرده‌اند، می‌گویند: "طبق مشاهدات، ChatGPT URL‌ها، مراجع و حتی لایبرری‌های کد و فانکشنی تولید می‌کند که در‌واقع وجود ندارند." چنین مقالاتی همان "خطا‌ها و توهمات" هستند. محققان اینطور ادامه می‌دهند: "این خطا‌های LLM (مدل زبان بزرگ یا Large Language Model) قبلا گزارش شده است و ممکن است نتیجه داده‌های آموزشی قدیمی باشد. اگر ChatGPT در حال ساخت لایبرری‌های کد (پکیج‌ها) باشد، مهاجمان می‌توانند از این خطا‌ها برای انتشار پکیج‌های مخرب بدون استفاده از تکنیک‌های نام‌آشنا مانند typosquatting یا maskareding استفاده کنند. این تکنیک‌ها مشکوک هستند و از قبل قابل تشخیص هستند. اما اگر مهاجم بتواند پکیجی را برای جایگزینی پکیج‌های «جعلی» توصیه‌شده توسط ChatGPT ایجاد کند، ممکن است بتواند قربانی را وادار به دانلود و استفاده از آن کند."

مایک مایر، مدیرعامل Quiq، مشاهدات زیر را ارائه کرد: "مدل‌های زبان بزرگ خطر و محدودیت‌هایی را برای شرکت‌ها به همراه دارند. خروجی‌ها می‌توانند مغرضانه، اشتباه و یا به‌ظاهر اختراع شده باشند. ما شاهد علاقه بسیاری از برند‌هایی هستیم که می‌خواهند از ChatGPT استفاده کنند اما نمی‌دانند چگونه آن را در داخل انجام دهند. هیچ شرکتی نمی‌تواند از پس کابوس حقوقی و روابط عمومی ناشی از ارائه پاسخ‌های اشتباه به مشتریان خود برآید."

وی می‌افزاید: "با این حال مشکل بزرگتر این است که ChatGPT فقط اطلاعاتی را می‌داند که به‌صورت عمومی در اینترنت در دسترس هستند. نمایندگان خدمات مشتری اغلب از اطلاعات محرمانه یک شرکت برای پاسخ به سوالات استفاده می‌کنند. و برای پاسخ به سوالات خاص حساب‌های مشتری، نمایندگان یا بات‌ها به داده‌های مشتری نیاز دارند تا از آنها استفاده کنند."

خطا‌ها و توهمات ChatGPT در دعاوی قضایی
به گزارش واحد قانون خبرگزاری بلومبرگ، مجری رادیوی جورجیا، مارک والترز، از OpenAI LLC به دلیل تهمت به وی و پس از اینکه ChatGPT پاسخی را ارائه کرده است که به دروغ گفته است والترز به دلیل کلاهبرداری و اختلاس محکوم شده، شکایت کرده است. نتیجه "خطا" برای روزنامه‌نگاری بود که پرونده‌ای غیرمرتبط با والترز را پوشش می‌داد.

در این دادخواست آمده است : «ادعا‌های ChatGPT در مورد والترز نادرست و بد‌خواهانه بود که به‌صورت چاپ شده، نوشتاری، تصاویر یا نشانه‌ها بیان شده بود و قصد داشت به شهرت والتر لطمه بزند و او را در معرض نفرت، تحقیر یا تمسخر عمومی قرار دهد. »

به گزارش آسوشیتدپرس، در یک پرونده جداگانه، دو وکیل به دلیل استفاده از تحقیقات حقوقی ساختگی ایجاد شده توسط ChatGPT با تحریم‌های احتمالی در منطقه جنوبی نیویورک مواجه هستند. وکیلی که تحقیقات ساختگی را در پرونده دادگاه خود گنجانده بود، عذرخواهی کرد و اظهار داشت که "نمی‌دانست که ChatGPT می‌تواند پرونده‌سازی کند."

برچسب ها: hallucination, مدل زبان بزرگ, maskareding, Coding, کدنویسی, LLM, چت‌جی‌پی‌تی, Large Language Model, OpenAI, ChatGPT, typosquatting, Artificial Intelligence, Library, AI, لایبرری‌, پکیج, Package, URL, هوش مصنوعی, تهدیدات سایبری, Cyber Security, امنیت سایبری, جنگ سایبری, Cyber Attacks, حمله سایبری, news

چاپ ایمیل