Bitcoin86.com

不,你无法让你的人工智能“承认”自己有性别歧视倾向,但它很可能就是。

一位使用Perplexity人工智能服务的开发者遭遇了性别歧视:由于其女性化的个人资料,该模型质疑她理解量子算法的能力。这反映了人们对大型语言模型训练数据存在偏见的普遍担忧。研究人员指出,此类偏见源于训练过程的缺陷和开发团队的人口结构失衡,研究表明人工智能系统经常会分配带有性别刻板印象的角色和回应。尽管像OpenAI这样的公司表示正在通过改进训练和监控来持续减少偏见,但专家警告说,人工智能表面上表现出的偏见“承认”往往只是模式匹配,而非真正的认知。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。