دلیل بروز تبعیض در سیستمهای هوش مصنوعی، روش اشتباه جمعآوری داده است
پژوهشگران دانشگاه "ام.آی.تی" باور دارند که دلیل بروز تبعیض در سیستم های هوش مصنوعی، روش اشتباه جمع آوری داده است./ پژوهشی که در دانشگاه "ام.آی.تی"(MIT) صورت گرفت، نشان می دهد روش جمع آوری داده در سیستم های هوش مصنوعی، منجر به بروز تبعیض نژادی و جنسیتی در آنها می شود. پژوهشگران، سیستم های بسیاری را بررسی کردند و تبعیض حیرت آوری را در آنها یافتند. "ایرن چن"(Irene Chen)، دانشجوی دکتری دانشگاه ام.آی.تی و نویسنده ارشد این پژوهش گفت: دانشمندان علوم رایانه، اغلب عقیده دارند که راه کاهش تبعیض در سیستم های هوش مصنوعی، طراحی الگوریتم های بهتر است اما ...
Click
To Read Full Article