游戏传奇首页
游戏我的天下首页
最好看的新闻,最实用的信息
11月19日 16.8°C-19.1°C
澳元 : 人民币=4.71
悉尼
今日澳洲app下载
登录 注册

周鸿祎谈中美AI差距:一旦技术方向确定,一两年内能追上(图)

2024-02-24 来源: 环球网 原文链接 评论3条

本文转载自环球网,仅代表原出处和原作者观点,仅供参考阅读,不代表本网态度和立场。

周鸿祎:中美AI差距主要在于“确定技术方向”,一旦方向确定,差距应能在一两年内追上

全国政协委员、360创始人周鸿祎23日在接受《环球时报》记者采访时表示,中美在AI上的差距主要在于“确定技术方向”上,一旦方向确定,中国的优势是学习能力很快,中美在AI上的差距应该能在一两年内追上。周鸿祎同时表示,2024年或将成为中国在AI领域的“应用之年”,相信今年大模型将在许多企业的垂直领域大有可为,“中国现在要做出一个超过GPT4的通用大模型可能比较难,但在一些垂直领域超过GPT4,是完全有可能的。”

周鸿祎谈中美AI差距:一旦技术方向确定,一两年内能追上(图) - 1周鸿祎接受《环球时报》记者采访。环球时报-环球网/陈青青 摄

2月15日,人工智能ChatGPT母公司OpenAI公布了一种新的人工智能系统Sora,该系统可以根据用户的文本提示创建逼真的视频,引发全球关注与讨论。360创始人周鸿祎16日发文说,OpenAI手里应该还藏着一些“秘密武器”,这样看来中国跟美国的AI还存在一些差距。他同时表示,科技竞争最终比拼的是人才密度和行业积累。AI不一定那么快颠覆所有行业,但它能激发更多人的创作力。

“我一直坚持这么说,看到差距才知道怎么迎头赶上。承认差距不是坏事,认为我们所有都遥遥领先了,那就(不行了)。”周鸿祎23日在对《环球时报》进一步阐述称,自己认为中国和美国在人工智能上的差距主要在“确定技术方向”上。

“谁选择到了正确的方向,正确的架构,全世界都会跟着这个架构。”他解释称,“比如,日本人当时做电动车,选的是氢架构,丰田走的是混动架构,而特斯拉走的是纯电池架构。我们实际上是坚定追随特斯拉的架构,比亚迪率先学习,再通过不断发展,现在比亚迪在销量上是有机会超越特斯拉的。”

“通过这些例子,我是想说明,一旦技术方向确定了,中国公司的学习能力都很快。尤其当同行发布开源的东西、公开的论文后,中国团队去跟进,不是一个很难的问题。”他表示。

周鸿祎对《环球时报》记者表示,他对目前中美在AI上的差距并不悲观,毕竟Transformer模型、Sora等本质上都是软件,这种差距是可以在一到两年左右追上的。此外,也不需要非得等到全面赶上GPT4或Sora才能发展应用。

在谈及Sora对世界的影响和应用前景时,周鸿祎表示,Sora最让他感到震撼的一点是,产生视频只是它的一个“副产品”——在产生视频的过程中,Sora需要学习很多视频材料,它学到的不仅是如何绘出图案,更重要的是,它必须了解到现实世界很多元素间的互动关系。

“有人跟我争论,画图软件也能画出一只狗在雪地上,但问题是,画出静止的狗和雪不需要掌握常识,只要照着图像画就可以。但要想呈现出狗在雪地上撒欢,雪还在掉落,是松软的性质,没有对现实世界常识的学习和积累是做不到的。”他解释道。

“这意味着Sora让人离AGI(通用人工智能)又近了一步。”周鸿祎对《环球时报》表示,“GPT实际上解决了机器和人之间相互理解和交互的问题,这是攻克了第一个难关,但它对这个世界的很多规律并不知道:比如我们要让一个机器人去冰箱里拿西红柿再炒鸡蛋,训练起来会很难,因为它需要知道西红柿是摔不破的,而鸡蛋一摔就破,它还要知道要怎么磕鸡蛋,它必须像人类一样见过,才能知道。我认为这可能是OpenAI在研发Sora时无意中做到的。它实际上通过这种训练方法,让机器能够和世界互动。”

他认为,这意味着Sora未来可能应用于机器人和无人驾驶领域,因为它对真实世界的交互有了感知的能力。

在谈及中国AI在2024年的发展前景时,周鸿祎对《环球时报》表示,2024年应该是中国AI的“应用之年”,相信今年在许多企业的垂直领域,大模型将大有可为。“大模型未来应该要产生一场工业革命,大模型必须跟随企业进入百行千业,和很多企业的业务流程和产品功能相结合。”

“比如,我们现在要做一个能超过GPT4的通用的大模型可能比较难,但GPT4是‘啥都懂,但不专’。如果我们能在某一个业务领域,有独特的业务数据,在一个垂直领域把大模型训练得很好,而且把大模型和企业很多业务工具结合在一起,这样的大模型就不仅有脑子,还有独特的知识,甚至手和脚了。”他表示,中国在一些垂直领域的大模型超过GPT4,是完全有可能的。

有观点认为,中国大模型的开发需要对内容安全和监管投入巨大精力,这是目前中国AI发展的一大挑战。对此,周鸿祎认为,全世界的大模型都面临安全挑战,尤其是如何保证大模型可信、可控、可靠的问题。

“大模型可以成为好人的帮手,也可以成为坏人的帮手。比如过去你得懂编程才能做网络攻击,现在你可以和大模型对话,给它‘小费’,它能帮你很勤奋地干活,甚至同流合污。”他举例称,再比如Sora可以产生任何视频,这些视频大到可以用来干预美国大选、成为影响国家安全的武器,小到可以用来诈骗,其蕴含的危险性其实很大。当人工智能技术的发展已经走在法律前面的时候,全世界都在考虑如何对人工智能进行有效监管,如何防止它作恶或被利用,这目前也是全世界的难题。

“我不认为监管对人工智能的进步带来妨碍。相反,如果没有任何监管,对各大互联网做出的各种人工智能工具,最后好人不一定能很及时地用上,缅北的诈骗分子可能倒先用上了,据说他们对新技术的渴望和热爱不亚于我们的高科技公司。”他对《环球时报》记者开玩笑地说道。他表示,合理的监管应当能够对人工智能的发展带来正向推动作用,而不能一概认为是束缚。

本文转载自环球网,仅代表原出处和原作者观点,仅供参考阅读,不代表本网态度和立场。

今日评论 网友评论仅供其表达个人看法,并不表明网站立场。
最新评论(3)
FCCP
FCCP 2024-02-25 回复
核心算法是不会公开的,芯片你也是买不到的,所以别做梦了,两年后差距只会更大!
潘静arrrrr君
潘静arrrrr君 2024-02-24 回复
这么看来,对AI的发展还有很大的希望,只要方向确定,差距可以追上
我妈叫我小米
我妈叫我小米 2024-02-24 回复
中国的AI未来也许能迎头赶上美国!加油!


Copyright Media Today Group Pty Ltd.隐私条款联系我们商务合作加入我们

分享新闻电话: (02) 8999 8797

联系邮箱: [email protected] 商业合作: [email protected]网站地图

法律顾问:AHL法律 – 澳洲最大华人律师行新闻爆料:[email protected]

友情链接: 华人找房 到家 今日支付Umall今日优选