加州大学伯克利分校的研究人员开发了一种方法,可以消除机器理解和口头或文本回应的性别偏见。

最近的一项研究发现,研究人员发现了一种减少自然语言处理中的性别偏见的方法,同时仍保留有关单词含义的重要信息。 这可能是解决人工智能中的偏见问题的重要一步。

尽管计算机是公正的,但通过它的大部分信息和程序都是人类创造的。 当人工智能模型分析以“理解”语言的文本样本中反映出无意识或有意识的人类偏见时,可能会出现问题。

丁磊解释说,计算机无法立即理解文本。 她是数学与统计科学系的研究生。 词嵌入是将词转换为数字的过程。

来源和详细信息:
https://techxplore.com/news/2022-09-ai-method-gender-bias-machines.html

By lausm

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *