联合国教科文组织发布报告称对语音助手类软件使用女性声音感到担忧
联合国教科文组织最新发布的报告关注语音助手类软件,数字助理们默认使用女性声音可能对人们产生影响。
谷歌推出部分功能鼓励用户与语音助手类软件进行交谈时遵守礼仪,不过联合国教科文组织认为还可以改进。
为此联合国教科文组织关注此类问题并提出如何解决这些问题,而这需要各国政府以及软件开发商们的合作。
该组织举例称当苹果用户对苹果助手Siri说「你是个傻瓜」时,Siri给出的回复是「如果可能的话,我会脸红」
1.这类语音助手类软件使用广泛使用女性声音可能「反映、加强和传播性别偏见」「模仿接受性骚扰和辱骂」
2.发送有关妇女和女孩应该如何回应男性用户的请求并表达自己的信息可能会造成或加强男性对女性的偏见。
3.使女性承担主要由男性设计的硬件和软件限制所造成的故障或者其他错误,也就是男性的所谓的面子问题。
4.强迫合成的「女性」声音和「女性」个性将问题和命令提交给更高级的管理 (通常是由男性主导)进行处理。
1.首先需要结束以女性声音作为语音助手类软件或数字助理类软件的默认声音并由用户使用时进行自由选择。
2.探索既不是男性声音也不是女性声音的中性声音作为语音助手类软件或数字助理类软件默认声音的可能性。
3.软件开发商们应该制定和推出方案阻止语音助手类软件基于性别的辱骂或者是带有辱骂性侮辱性的语言等。
4.要求由人工智能驱动的语音助手类软件或数字助理类软件在与人类进行交谈的开始就强调此技术为非人类。
假装成女性的顺从和乐于助人的机器人 (指那些语音助手数字助理类软件)正在进入我们家园、汽车和办公室。
这些机器人们的硬性因素影响人们如何与女性的声音进行对话,并模拟女性如何回应人们的请求并表达自己。
为改变方向我们需要更加密切地关注人工智能技术性别、时间和方式,以及至关重要的是谁在对他们性别化。
在联合国教科文组织发布的报告中还提建议称,应该让这类语音助手类软件的开发团队男女开发者更加平衡。
报告指出当前从事人工智能研究的女性只有12%、仅占软件开发6%、申请 ICT 专利的可能性是男性的13倍。
因此在报告中联合国教科文组织还建议通过性别平等的数字技能教育和培训来弥补软件开发行业的男女差距。