AI、信任和安全

摘要: 技术重新发明轮子的能力可能意味着忽略别人学到的真理。但是,新的创始人有时比前任更快地弄清楚它。

图片

AI、信任和安全

今年是一个奥运年、闰年,也是选举年。但在指责我过于关注美国时,请不要忘记还有60多个国家将举行国家选举,更不要忘记欧洲议会的选举。

每个选举的结果都可能对科技公司产生影响,不同政党对于人工智能监管的态度往往有所不同。但在选举举行之前,科技也有责任保证选举的公正性。

当马克·扎克伯格创建Facebook时,可能并没有考虑到选举的公正性问题,甚至在他收购WhatsApp时也可能没有考虑到这个问题。但是在20年和10年之后,信任和安全已经成为Meta和其他科技巨头无法逃避的责任,无论他们是否喜欢。这意味着他们需要努力防止虚假信息、欺诈、仇恨言论、儿童性虐待材料、自残等问题。

然而,人工智能可能会使这项任务变得更加困难,不仅仅是因为深度伪造技术或恶意行为者的增加。Grove Ventures的合伙人Lotan Levkowitz表示:

所有这些信任和安全平台都有一个哈希共享数据库,所以我可以将不好的东西上传到数据库中,与我的所有社区分享,大家一起阻止它;但是现在,我可以训练模型来尝试避免这种情况。所以,即使是更经典的信任和安全工作,由于通用人工智能的出现,也变得越来越困难,因为算法可以帮助绕过所有这些问题。

从事后思考到前瞻

虽然在线论坛已经在内容管理方面有所经验,但Facebook在刚刚成立时没有社交网络指南可循,所以它需要一段时间才能适应这个任务。但是从Meta内部文件中得知,早在2017年,公司内部就对采取更好的保护儿童措施存在犹豫。

扎克伯格是最近出席美国参议院关于儿童在线安全的听证会的五位社交媒体科技公司CEO之一。Meta虽然已经多次作证,但Discord的出席也值得注意;虽然Discord已经超越了游戏起源,但这也是一个提醒,信任和安全威胁可能发生在许多在线场所。这意味着社交游戏应用也可能使其用户面临钓鱼或诱导风险。

新公司是否会比FAANG更快地承担责任?这并不保证:创始人往往从第一原则出发,这既是好事也是坏事;内容管理的学习曲线是真实存在的。但OpenAI比Meta年轻得多,所以听到它正在组建一个新团队来研究儿童安全是令人鼓舞的,即使这可能是因为它受到了审查的影响。

然而,一些初创公司并不等待出现问题才采取行动。作为Grove Ventures投资组合中提供AI增强的信任和安全解决方案的供应商,ActiveFence的首席执行官Noam Schwartz告诉我,他们收到了越来越多的咨询。

“我看到很多刚成立或即将推出的公司联系我们的团队。他们在设计阶段就考虑到产品的安全性,并采用了一种称为“安全设计”的概念。他们在产品内部嵌入了安全措施,就像今天在构建功能时考虑安全和隐私一样。”

ActiveFence并不是这个领域唯一的初创公司,Wired将其描述为“作为服务的信任和安全”。但它是最大的之一,尤其是自去年9月收购Spectrum Labs以来,它的客户不仅包括担心公关危机和政治审查的大公司,还包括刚刚起步的小团队。科技也有机会从过去的错误中吸取教训。

© 版权声明
THE END
喜欢就支持一下吧
点赞10 分享
评论 抢沙发
头像
欢迎您留下宝贵的见解!
提交
头像

昵称

取消
昵称表情代码图片

    暂无评论内容