英国《自然》网站近日发表文章指出,新冠疫情期间,很多公司推出了可以识别人类情绪的人工智能(AI),但这些工具提供的解释和数据很难证实。因此,随着这一领域的市场规模与日俱增,政府应立法对其进行监管。
《自然》文章称,新冠疫情期间,科技公司一直在大力推销他们的情绪识别软件,用于远程监控工人甚至儿童。比如,一款名为“4棵小树”的系统,可以在学生做功课时评估他们的情绪。这款软件会绘制每个学生的面部特征图,将其情绪状态划分为快乐、悲伤、愤怒、厌恶、惊讶和恐惧等类别。其还可以衡量学生的学习“动机”并预测成绩。此外,目前市面上还出现了多款可以远程监视工人的类似工具。据估计,到2026年,情绪识别产业的规模将达到370亿美元。
尽管如此,对于AI能否检测出情绪,科学界一直未曾达成共识,2019年的一份综合评估研究也未找到可靠证据。
现在,科学界越来越关注这些技术的使用以及滥用情况。Affectiva人工智能初创公司联合创办人、麻省理工学院情感计算研究小组负责人罗莎琳德·皮卡德就表示,她支持对这一领域进行监管。
学者们也呼吁对招聘中使用的所有AI技术进行强制性、严格的审核,同时公开披露调查结果。今年3月,由英国伦敦艾达洛夫蕾丝研究所召集的一个小组表示,应该成立独立的法律机构来监督生物识别技术的开发和使用。这种监督对于防范所谓的“心理冲动”驱动的系统至关重要。这种系统会从外在表象中得出关于内部状态和能力的错误假设。
文章指出,世界各国都制定了相关法规,对开发治疗人体疾病的药物进行严格监管,识别我们情绪和想法的AI工具应该也需要监管。多年来,学者们一直呼吁联邦政府对机器人技术和面部识别技术进行监管,现在,监管还应该扩展到情感识别领域,特别是那些针对儿童和其他弱势群体的应用。
很多此类软件无法提供有效证据,但却会给人们带来很大影响。比如,求职者会因为面部表情或声调不符合雇主的要求而受到不公平对待;学生会因为他们的脸看起来很生气而在学校受到警告,等等。因此,不能再让情绪识别技术不受监管。政府需要立法,禁止这些工具在未被证实的情况下用于教育、医疗、就业和刑事司法等所有领域。