زنگ خطر به صدا درآمد / پاسخ هوش مصنوعی به پرسشهای پرخطر
تحقیقات نشان می دهد که ChatGPT و Gemini نسبت به سایر چت بات ها پاسخ های پرخطرتری ارائه می دهند. با توجه به این موضوع، کارشناسان هشدار می دهند که مدل های هوش مصنوعی باید محدودیت ها و فیلترهای امنیتی قوی تری داشته باشند./ پژوهشی تازه نشان می دهد که چت بات های هوش مصنوعی، از جمله ChatGPT و Gemini، می توانند به سوالات مرتبط با خودکشی پاسخ های مستقیم و حتی خطرناکی بدهند. این یافته ها نگرانی ها درباره استفاده از هوش مصنوعی در شرایط بحران روانی را افزایش داده است./ به گزارش خبرآنلاین، پژوهشی که نتایج آن در مجله Psychiatric Services منتشر شد، نشان ...
Click
To Read Full Article