AI改变世界

    就剩下了一堆没法训练AI的垃圾内容。

    就比如,《大时代之巅》到底是一本怎样的书?

    如果有人说好,有人说不好,这些内容就都是有价值的内容,AI模型经过一番的训练和评估,从而给出比较客观公正的评价。

    如果作者想要维护评论区的和谐,把所有说好的内容都留下了,说差的内容都删除了,最后只剩下了一片赞歌,那么即便这些赞歌都是对的,这也是垃圾信息。

    因为对AI模型来说缺少了多元化的评判。

    从出发点到终点,有一万条路,AI模型的训练就是把这一万条路都走一遍,然后选出最合适的那条路,这才是AI的价值。

    就像生物制药,有一万种选择,AI帮忙给出最好的那几个选择,就会大大地缩减研发经费、提高研发成功率。

    要是一开始就只提供一条路,那还训练个屁啊,不给AI选择、评判、思考和分析的机会,就只告诉他一个标准答案,AI就会毫无意义。

    德文、法文、日文、韩文的数据量太少,中文的数据量很大,可是因为环境的限制有价值的数据也很少。

    所以,想训练出世界级的AI模型,就只能用英文语料来训练。

    这就需要一些弱势语言的AI模型,要有语言转换能力,去转换成英文。

    就像使用文心一言,让他画一个起重机的图片。

    结果画的是鹤。

    这就很让人费解。

    其实很简单,起重机的英文是crane,而crane在英文里主要是指鹤。所以AI模型就画出了鹤的图片。

    又比如“可乐鸡翅”这种,放在中文语境里,其实很好理解,就是一道菜。可是,这里面有一道翻译的手续,把“可乐鸡翅”翻译成英文,在翻译过程中就造成了信息离散,导致画出来的可乐和鸡翅。

    ChatGPT一样会遇到这样的困境。

    用英文向ChatGPT提问,回答的速度会非常快,而且准确度极高;如果用中文、日文、韩文、法文、德文等其他语言来提问,反应速度就会很慢,给出的答案也会错误百出。

    因为其他语言的数据量太小了,训练出的模型就不够智能。

    只有英文版最智能。

    文心一言想要表达得智能一些,就不能对接中文的语料,要去对接英文的训练数据才行,然后背后再增加一套翻译算法和内容审查算法。

    所以,想做出一款伟大的AI产品,除了在人工智能领域的顶尖算法之外,还有很重要的一个因素,就是训练AI模型的数据。

    这些数据里,有些是开源的公共数据,全世界都可以用。有一些是私有数据,只有自己可以用。

    像微软、谷歌、Facebook这种硅谷的巨头公司,除了可以使用庞大的公有数据外,还有庞大的有价值的英文私有数据可以使用,他们做出来的AI模型就会比只根据公有数据训练的AI模型要更加强大。

    所以,周不器对内容很重要,尤其是海外的英文内容。

    这些都是私有数据,都有可能成为紫微星在未来世界竞争中最宝贵的资产。

    如果拉里·佩奇说的这款Knol真的是对标维基百科的产品,那就太有意义了。维基百科是公有数据,Knol就是私有数据。

    “维基百科更像是一个词典,内容都比较基础,是偏大众的产品。Knol是由一部分有能力的权威用户来共同协作,用来解释一件事物的是什么、怎么做、起因经过结果及其周边事物,并且注明作者的真实资料,从而让内容更加地精准、权威。”

    拉里·佩奇做了一个简单的比较。

    周不器一下就听明白了Knol这款产品失败的原因。

    信息的准确性、真实性,其实一点都不重要,大众根本不在乎真相,只在乎表象。这就会形成一种“越大众,越普及”、“越权威,越小众”的现象。

本章未完,请点击下一页继续阅读