美国斯坦福大学人工智能研究所最新发布的“AI年度指数报告”揭示,AI的发展速度远超预期,已突破过去设立的衡量标准,众多指标达到甚至超越了原先设定的“满分线”。在图像识别、阅读理解、简单运算、多语言互译等基础任务方面,AI的性能已全面超越人类,实现大规模应用。斯坦福大学学者呼吁,AI应接受更具挑战性的任务,进一步挖掘其潜力。
当前,尽管AI在竞赛级别数学问题及更高难度的抽象推理演绎上尚未超越顶尖人类智力,但科学家认为这是AI未来研发的重要方向。
斯坦福大学自2017年起每年发布的人工智能指数,由学术界和工业界的专家共同编制,旨在评估AI的技术能力、成本、伦理等多方面因素,为研究者、决策者及公众提供参考。报告主编内斯特·马斯雷指出,AI正快速打破原有的基准线,导致衡量标准需频繁更新。报告强调,AI在“语言”和“数学”等基础学科已超越人类,但在“视觉空间的常识推理”和“竞赛级数学解题”方面仍有待提升。马斯雷建议,AI的下一步发展应聚焦于增强更高层面的抽象推理能力,以实现性能跃升。
纽约大学机器学习研究员大卫·莱恩领导的团队设计的“GPQA测试”,被公认为衡量AI综合能力的标准。数据显示,人类博士生在其专业领域的GPQA测试得分率为约65%,而在其他领域则降至平均34%。相比之下,截至2023年底,各AI模型得分率普遍位于30%至40%区间。然而,今年推出的Claude 3大模型得分率已达约60%,接近博士生在其专业领域的知识水平,展现出惊人的进步速度。
AI领域的快速发展始于2011年,以GitHub平台上相关项目数量从当年的800个激增至现在的180万为标志。科技企业预见AI的广阔商业前景,大量投资推动科研进程加速。据统计,全球51个主流AI大模型中,仅15个出自学术团队,其余大部分由企业开发。
斯坦福称AI在基础任务上已超越人类 多项功能展现超人实力
AI模型训练成本显著攀升,如OpenAI的GPT-4训练成本估算为7800万美元,谷歌Gemini Ultra更是高达1.91亿美元,相比之下,2017年Transformer模型训练成本仅900美元,2019年RoBERTa Large为约16万美元。
随着版权纠纷、隐私安全等问题日益突出,AI行业亟待建立统一的安全评估标准。目前,OpenAI、谷歌、Anthropic等领先企业各自采用不同测试评估模型安全性,导致难以横向比较AI模型的风险和局限性,增加了监管难度。
面对AI的迅猛发展,公众的担忧情绪上升。根据皮尤研究中心数据,52%的美国人对AI持“忧大于喜”的态度,较2022年的38%有所增加。
巴菲特对于人工智能领域的投资规模或许超乎大众的预料。在2023年伯克希尔-哈撒韦的股东大会上,他预言人工智能将会深刻改变世界,但他并不担心人工智能会超越人类智慧
2024-05-03 12:27:30巴菲特不认为人工智能将超越人类原标题:OpenAI首席执行官奥特曼称相信AI无法替代人类:因为人类天生就会对其他人类更感兴趣AI(人工智能)新锐巨头OpenAI首席执行官萨姆·奥特曼(Sam Altman)在本
2024-01-19 11:05:55奥特曼称相信AI无法替代人类日前,特斯拉CEO马斯克在社交平台X上评论了乔·罗根有关AI(人工智能)的播客视频。
2024-03-14 09:50:43马斯克最新预测:到2029年6月3日,面壁智能CEO李大海针对近期热议的斯坦福大学AI团队涉嫌抄袭其公司项目的事件作出回应。
2024-06-05 13:34:26抄袭面壁智能被锤