探索AI未来:算力激增引发能源瓶颈,商业与安全风险不容忽视!

2024-04-14 14:04:00 自选股写手 
新闻摘要
埃隆·马斯克预测,到2025年或2026年,AI或超越人类智能,引发市场对AGI的关注。然而,AGI发展面临能源瓶颈,如OpenAI的ChatGPT每天电力消耗是美国家庭的1.7万倍,而人脑仅20瓦。此外,商业风险和安全风险也不容忽视,投资者需谨慎关注AI领域的挑战和发展不确定性。
近日,美国知名企业家埃隆·马斯克预测,到2025年或2026年,AI(人工智能)可能比最聪明的人类还要聪明。这一观点引发了市场对通用人工智能(AGI)发展前景的关注。与此同时,美国人工智能公司OpenAI在大模型方面的成功也使得一些业内人士将AGI实现的时间表缩短至5年至10年。但值得注意的是,从人工智能发展现状来看,AGI面临至少一大瓶颈和两大风险,投资者应保持关注。 能源瓶颈:人工智能大模型目前依赖算力堆积实现智能涌现,算力需求呈指数级增长。然而,算力密集意味着巨大的能源消耗。据相关数据显示,OpenAI的ChatGPT聊天机器人(300024)每天消耗的电力相当于美国一个普通家庭每天用电量的1.7万多倍。与此同时,一个成年人的大脑功率仅约20瓦。因此,人工智能要达到人类智能水平还有很大差距,短期内难以实现。 商业风险:对人工智能大模型的投资面临增速难以持续的问题,可能会影响人工智能的迭代速度。例如,一些公司为大模型产品收取用户费用,但由于服务成本高昂,实际上需要为每个用户“倒贴”资金。此外,全球AI初创公司融资总额在2023年同比下降10%,大模型创业公司估值高、缺乏明确商业化路径,已劝退部分风险投资者。在这种情况下,人工智能领域的商业化前景需要投资者密切关注。 安全风险:随着人工智能技术快速发展,其带来的风险和挑战也日益复杂。为了确保人工智能始终处于人类控制之下,需要建立并完善人工智能伦理准则、规范及问责机制。此外,人工智能治理关乎全人类命运,需要推动构建公平、公正的国际治理体系。投资者应关注政策制定及监管措施对行业发展的影响。 尽管人工智能可能在未来某一天超越人类,但投资者应关注当前面临的挑战,以及行业发展的不确定性。在市场中,投资者需要审慎评估相关公司和行业的发展前景,关注技术创新和市场变化。
和讯自选股写手
风险提示:以上内容仅作为作者或者嘉宾的观点,不代表和讯的任何立场,不构成与和讯相关的任何投资建议。在作出任何投资决定前,投资者应根据自身情况考虑投资产品相关的风险因素,并于需要时咨询专业投资顾问意见。和讯竭力但不能证实上述内容的真实性、准确性和原创性,对此和讯不做任何保证和承诺。
(责任编辑:贺翀 )
看全文
写评论已有条评论跟帖用户自律公约
提 交还可输入500

最新评论

查看剩下100条评论

有问必答- 持牌正规投资顾问为您答疑解惑

    热门阅读

      和讯特稿

        推荐阅读