Facebook投资包容性人工智能,以遏制有害内容
Facebook宣布在人工智能(AI)领域的长期投资,主动检测违反其政策的内容。
“为了帮助我们捕获更多这个问题内容,我们”重新努力确保我们的AI系统可以尽可能少的监督,“来自Facebook的Manohar Paluri在San的F8会议期间表示加利福尼亚州何塞周四。
“自然语言处理的进步(NLP)帮助我们为翻译创建了一种数字共同语言,因此我们可以捕获更多语言的有害内容,”Paluri补充道。
Facebook已经开发了一种新的对象识别的方法,称为“Panoptic FPN”,该对象识别已帮助AI驱动系统从照片背景中理解上下文。
“将视觉和音频信号结合的培训模型进一步提高了结果,”Paluri表示。
Facebook目前正在世界各地面临着隐私违规以及其平台上有害和偏见内容的差异,包括WhatsApp。
Joaquin Quinonero Candela来自Facebook的AI团队表示,该公司正在建立最佳实践,以确保AI保护人员,并没有区分他们的每一步的产品开发。
“当AI模型由人类培训涉及人员的数据集时,存在固有的代表性风险。
“如果数据集包含限制,漏洞或其他问题,所产生的模型可能会对不同的人进行不同的表现,”Candela说。
为了管理这种风险,Facebook表示,它已经为包容性AI开发了一个新的进程。
此过程提供了帮助研究人员和程序员设计数据集,测量产品性能以及通过包含镜头测试新系统的指南。
“对于愿景,这些尺寸包括肤色,年龄和性别陈述以及声音,包括方言,年龄和性别。