5月20日消息,自从ChatGPT爆火以来,全球诞生了无数的大模型,光国内就有上百种,但实际应用效果并不尽如人意。
在今天下午的2024搜狐科技年度论坛上,中国工程院院士、国家数字交换系统工程技术研究中心主任、复旦大学大数据研究院院长邬江兴指出,他们团队对当前最流行的10种大模型进行安全分析发现,超过90%的主流大模型缺乏可信度。
邬江兴表示,深度学习模型存在“三不可”基因缺陷,即不可解释性、不可靠性和不可控性。
分别是:
第一,不可解释性。
从数据提供AI模型训练到知识规律,再到获得应用推理阶段,AI系统的工作原理至今仍不明确。问题的发现和定位非常困难,而AI系统中的安全问题更加复杂,甚至比破解密码还要困难。
第二,不可判识性。
由于人工智能对于序列性强依赖的内容缺乏判别能力,因此数据的质量和来源的差异可能会导致训练结果的差异。
第三,不可推论性。
AI的推理是从已知数据中获得规律性,难以胜任对中长期未来事物变迁的预测和推理,只是把现有的东西归纳起来,看起来它聪明无比,但仅仅是比我看得多,并没有产生什么新的认知。