欢迎订阅专栏
获取人工智能邻域最新资讯
总览
麻省理工学院的学者主张强制性的人工智能内容标签和更严格的人工智能法律。
呼吁人工智能安全发展
麻省理工学院的研究人员和学者们撰写了一份政策文件,呼吁美国政府利用现有法规扩大人工智能的治理。
这份长达10页的文件“创建一个安全繁荣的人工智能行业”,提出当前的法律框架应涵盖人工智能——比如将医疗监管扩展到人工智能诊断。他们还希望人工智能被监管政府活动的规则所涵盖,包括警务、保释和雇佣。
该组织表示,有关人工智能的法律法规应由管理人类行为的同一实体执行,而非同一领域的人工智能,并补充道:“这可能需要这些实体发展一些人工智能专业知识。”
该政策文件写道:“如果不使用人工智能的人类活动受到监管,那么人工智能的使用也应该受到类似的监管。在人工智能的适用范围内,人工智能系统的开发、销售和使用应尽可能遵循与人类在没有人工智能的情况下行动相同的标准和程序。”
麻省理工学院的小组认为,这将确保现有法律涵盖更高风险的申请。论文中提到的一个已经在探索的领域是自动驾驶汽车,它与人类驾驶的汽车遵循相同的标准。
具体建议
大语言模型
该报告的作者认为,那些构建通用人工智能系统的人,如ChatGPT,应该被要求在发布前确定此类系统的预期用途。他们还建议监管机构发布定义预期用途的规则,这样开发者就可以确保他们的系统与布局相匹配。
知识产权
该组织还呼吁澄清人工智能引起的知识产权侵权行为,包括创作者如何防范和识别潜在侵权行为。建议的一种方法是强制标注人工智能生成的内容。
该论文写道:“目前尚不清楚当前的监管和法律框架在涉及人工智能时是否适用,以及如何适用,以及它们是否能够胜任这项任务。这让提供商、用户和公众陷入了一种警告自负的境地。几乎没有什么可以阻止风险系统的发布和使用,也没有什么动力主动发现、披露或补救问题。”。
“需要对人工智能进行进一步的澄清和监督,以促进有益的人工智能的开发和部署,并更全面、更顺利地实现人工智能对所有美国人的潜在好处。”
麻省理工学院施瓦茨曼计算学院院长Dan Huttenlocher告诉麻省理工新闻:“作为一个国家,我们已经在监管许多相对高风险的事情,并在那里提供治理。”。“我们并不是说这就足够了,但让我们从人类活动已经受到监管的地方开始,随着时间的推移,社会已经决定哪些地方是高风险的。这样看待人工智能才是可行的方法。”
其他
还发表了几篇额外的政策文件,涵盖大型语言模型、支持人工智能和标记人工智能生成的内容。