您的位置:首頁>手機>正文

人工智慧被帶跑偏 已學會歧視與偏見

人工智慧的發展是為了讓其學習和模仿人類,以實現對人類社會的幫助。可是,英國衛報近日發表文章稱,人工智慧學習人類實在太敬業,不僅學習人類的優點,還染上了人類的惡習——人工智慧已經開始出現種族歧視和性別偏見了。

據科學家們研究,讓人工智慧產生種族及性別偏見的主要問題來自于機器學習時,人類語言和文化中根深蒂固的偏見被AI吸收而且得到了強化。科學家表示,人工智慧由於演算法和人類不同,這種偏見被強化的可能性更高,因為其無法有意識的去抵制所學到的這些。

人工智慧目前存在的問題在於,其經常會把歐美人的名字和“快樂”之類的愉快的詞語聯繫在一起,而非裔人的名字則通常和不愉快的詞聯繫在一起。這種演算法將很容易影響到人們的正常生活,比如當人工智慧系統進行簡歷篩選時,會很容易讓非裔失去面試邀請的機會。

而目前,業內部分人士已經開始意識到這個問題的嚴重性,他們主張在機器學習中新增一項名叫“單詞嵌入”的工具,用於改變電腦解讀語音或文字的方式,下一步將會自然的開發AI的擬人化能力,比如常識和邏輯等。

這一問題並非近期才出現的,微軟在去年推出的Twitter機器人就因其不當言論被緊急下線。人類的文化和語言歷史太長,這會對人工智慧造成的影響可能超出了我們的預估。

喜欢就按个赞吧!!!
点击关闭提示