脸书称新AI系统可以快速识别更多内容安全问题, “小样本学习”(Few-Shot Le
时间:2023-04-29 07:21:01 | 来源:网站运营
时间:2023-04-29 07:21:01 来源:网站运营
脸书称新AI系统可以快速识别更多内容安全问题, “小样本学习”(Few-Shot Learner)系统只需极少量的样本即可识别出问题帖子,而且支持100多种语言。:最近从脸书泄露的一批文件表明,这家社交网络公司正致力于在硅谷以外的地区遏制有害内容散播。脸书担心针对巴基斯坦和埃塞俄比亚使用语言的内容审核算法不够完善,而且该公司也缺乏足够的训练数据来优化系统以适应阿拉伯语的不同方言。
脸书的母公司Meta Platforms Inc表示,已针对部分任务上线了一个新的人工智能审核系统,该系统相比早期系统只需要极少量的样本数据,因而能更快地适应新的审核规则。脸书表示“小样本学习”系统支持100多种语言,不仅可以处理文本,还可以处理图像。
“小样本学习”系统将新审核规则实现自动执行所需的时间从六个月左右缩短为六个星期左右。该系统有助于执行9月出台的一条规则,即封禁所有煽动人们拒绝接种新冠疫苗的帖子。脸书还表示,“小样本学习”系统在今年年初上线后到今年10月,全球范围内仇恨言论的传播率较2020年年中呈下降趋势,但脸书并未透露新系统的性能数据。
新系统并不能解决脸书在内容审核上面临的所有挑战,但这开启了脸书借助人工智能技术来应对这些挑战的先河。一方面脸书的全球用户不断增长,另一方面它也滋生了仇恨、骚扰和种族歧视言论。据联合国称,针对缅甸罗兴亚穆斯林的种族灭绝言论在脸书上非常盛行。脸书一直强调人工智能是监控脸书庞大网络的唯一可行的方法。虽然最近取得了一些进步,但要理解人类语言交流的微妙之处,这项技术还有很长的路要走。脸书已支持100多种语言,但其已有的自动化系统仅能识别50多种语言的仇恨言论和恐怖主义内容,难以满足需求。
“小样本学习”是更强大、更复杂的新一代人工智能系统的典范。此类系统问世后迅速受到科技公司和人工智能研究人员的青睐,但也引起了公众对偏见等负面影响的担忧。
像“小样本学习”这样的模型可以先通过大量原始未标注的样本数据进行预训练,然后只需极少量经过仔细标记的样本数据,便可提炼出一些基本规律,进而调整系统以适应特定类型的任务。
谷歌利用BERT系统改进了搜索引擎,因为它发现通过对来自网络和书籍的数十亿个单词进行预训练后,该系统具备更强大的文本处理能力。该公司的两位人工智能专家后来因一篇敦促人们谨慎对待此类系统的论文引发争议而被公司开除。微软投资的人工智能公司OpenAI表示,其自研的大型语言模型GPT-3可以生成流畅的文本和程序代码。
“小样本学习”基于100多种语言数十亿计的帖子和图片进行了预训练。该系统利用这些数据来建立脸书内容统计模式的内部感知。用先前审核内容时标记的帖子和图像数据进行附加训练,并简化对这些帖子所违反规则的描述,从而调整系统以匹配内容审核场景。
脸书负责人工智能辅助内容审核的产品经理Cornelia Carapcea表示,在准备工作完成后,该系统可以识别新类型的内容,比如执行新的审核规则或扩展识别一种新语言,而这比以前的审核模式要轻松得多。
她说,传统的审核系统在上线之前可能需要数十万乃至数百万个样本帖子。而“小样本学习”系统顾名思义,只需要几十个样本,结合简单的描述或有关新规则的提示,就可以投入工作。
Cornelia Carapcea说:“‘小样本学习’系统已经识别了足够的数据,因此能更快地识别新问题、学习新规则。在暴力、仇恨和煽动性言论等有害内容问题上,我们一直难以获得足够多的标记数据,而新系统让我们能快速做出反应。”
“小样本学习”系统不需要任何样本数据,只需要给系统提供对于新规则的文字描述,就可以直接识别内容类型,这种与AI系统交互的方式异常简单。Cornelia Carapcea说,虽然这种方法的结果不算可靠,但是可以快速识别出新规则下要清理掉的内容,或者识别能够被用来进一步训练系统的帖子。
像“小样本学习”这样的大型人工智能系统具有如此令人瞩目的能力(其中许多尚不为世人所知),这促使斯坦福大学的研究人员新成立了一个专门研究此类系统的中心。研究人员将这类系统称为“基础模型”,因为它们将成为许多科技项目的基础。大型机器学习模型正在研发之中,这些模型不仅可用于社交网络和搜索引擎,还可用于金融和医疗等行业。
斯坦福大学研究中心主任Percy Liang表示,通过脸书的系统可以看到这类新模型强大的能力,但新模型也有弱点。Percy Liang认为,脸书称只需要一些书面文本就可以通过新的内容规则来指导人工智能系统去识别想要识别的内容,如此强大的能力自然令人兴奋,但人们对这种能力还不甚了解。“这更像是一门艺术,而不是一门科学。”
此外,Percy Liang表示“小样本学习”在速度方面也可能有缺憾。在工程师不必管理那么多的训练数据之后,某种程度上会减弱他们对系统功能的控制与了解。Percy Liang说:“这样风险很大,因为工具的自动化程度越高,人的控制力就越弱。”
Cornelia Carapcea表示,脸书在开发新审核系统的同时,还创建了一些方法来检查系统在内容审核上是否准确或带有偏见。
稿件来源:Facebook Says Its New AI Can Identify More Problems Faster