想把AI的价值观在全球领域里面对齐,我相信这是一件很难完成的事情,也是不可能完成的。
大家好,我是行行AI的顺哥。
上一次OpenAI的这个闹剧,很多人当时怀疑呢,是AI的价值观的分歧导致了,说奥特曼是向左,伊利亚向右。但事实上,大家是不是又发现跟这个没有关系。
那我们今天回到现实中间来,今天在全球范围里面,法律都没有东西方完全的一致是吧?而道德呢,更加的不一致。不然的话,也不会出现今天很多全球范围里面的各种民族也好,各种地区的冲突了。
所以说形成一个很好的一个AI的价值观的对齐,首先是需要在一个区域里面它的法律和道德的机制是一致的,这样才会实现AI领域里面也是一致的这样一个前提。
所以在中国呢,今天我们所有的AI的应用创业者啊,都会遇到类似的一个拷问,就是说你的AI应该是怎么跟当地的这个价值观念对齐,否则的话,你可能会有很多的一些风险。因为我们local的本地的法律是有很多这方面非常严苛的要求。
上周五呢,我们参加了一个由人民网科技组织的,一个关于大模型的一个研讨里面其实重点的,就是谈的这种价值观对齐问题。由人民网科技呢,发起成立了这个叫大联盟的一个责任联盟,行行AI也是首批的加入合作。
我们其实很聚焦的一个重点,就是怎么能够让大模型真的能够落地应用在这过程上解决合规合法的这样那个价值观的问题。因为我们在很多领域里面创业者做各种方向的创业者,其实都是做产业应用的,大家其实对于内容的安全的标准和风险的识别都不具备这样的能力。而你做真正的商业用给到企业,又要避免这些风险暴露,影响我们正常的商业。
所以人民网,在组织这样一个责任联盟的时候,其实有一个很好的动机,就是怎么能够让AI真正的形成落地的过程中间降低风险。行行AI也是希望成为首批合作伙伴,未来在产业AI应用过程中做一个内容的识别机制审计机制,帮助我们的很多AI应用创业者在做商业应用过程中更好的降低因为内容带来的风险,把这样风险降到0。
对于这样的一个AI内容的一个价值观的一个对齐标准,你有什么好的建议呢?可以告诉我,谢谢。