一项研究显示,目前主要的人工智能模型缺乏透明度,或将加大政策制定者拟定有效政策来监管这项科技的难度。
法新社报道,这项由哈佛大学研究员于星期三(10月18日)发表的研究,旨在指导政策制定者对人工智能科技进行监管。研究人员设计了一个“基础模型透明指数”,并对10家主要的人工智能公司进行排名。
得分最高的是脸书母公司meta Platforms今年7月推出的人工智能模型“Llama 2”,得分为54%。
推出人工智能聊天机器人ChatGPT的美国人工智能公司OpenAI,今年3月发布的大型语言数据库模型GPT-4排名第三,得分为48%。
谷歌推出的“PaLM 2”以40%排在第五位,略高于亚马逊支持的人工智能初创公司Anthropic推出的“Claude 2”人工智能模型(36%)。
斯坦福大学基金会模型研究中心的研究员博马萨尼说,这些公司应该努力争取80%到100%的得分。
研究人员指出:“较低的透明度将使政策制定者更难以制定有意义的政策,以对这一强大的科技进行监管。”
此外,这也让其他企业更难得知自己的应用是否可依赖这项科技,同时让学术界更难以进行研究,消费者也更难以了解模型的局限性。“如果没有透明度,监管机构甚至无法提出正确的问题,更别说是在这些地方采取行动了。”
这项研究发现,没有一家公司提供依赖使用人工智能模型的用户数量,或公司使用的地理位置信息。此外,多数人工智能公司都不披露其模型中使用了多少受版权保护的资料。