加州大学伯克利分校的科学家正在开发一种工具,使用ai人工智能识别社交媒体上的“仇恨言论”。研究人员希望该项目能够在Twitter、Reddit和其他在线平台上识别出过于偏执的评论

何打击网络暴力?ai人工智能可以解决-而后网
位于加利福尼亚州伯克利的D-Lab科学家正在与反诽谤联盟合作开发“可扩展检测系统,根据加州校友会的说法,该系统使用在线仇恨指数(OHI)来识别仇恨言论。除了ai人工智能,该程序还将使用其他不同技术在线检测攻击性言论,包括“学习机器自然语言处理和更传统的人类大脑”。研究人员的目标是有一天能够将该技术作为“主要的社交媒体平台”,以便他们能够找到“仇恨言论”并完全消除这些言论,以及这些传播用户

目前的技术主要涉及“关键词搜索”的使用,一位研究人员说:“这种方法过于简单,不够准确。”一种不同的拼写方法很容易欺骗这种算法。 D-Lab最初招募了来自全国各地不同背景的10名学生“写”这些帖子,以标记那些明确或巧妙地传达仇恨信息的人。将从原始学生获得数据输入到学习机模型中,并且所得算法可以识别具有仇恨信息的文本,准确率为85%,仅有15%的机会,不可识别或错误标记的攻击性词语和短语。

虽然前十位编码员只能自我评估,但他们会接受调查问题,以帮助他们区分仇恨言论和攻击性语言。一般来说,“仇恨评论”​​与特定群体有关,而“非仇恨”语言与特定群体有关,不涉及宗教、种