印度电子和信息技术部(MeitY)上周五发布了一份公告,宣布任何仍在开发中的人工智能技术在向公众发布之前必须获得政府的明确许可。
开发人员也只有在标明所生成的输出结果可能存在缺陷或不可靠之后,才能部署这些技术。
此外,文件还概述了实施 "同意弹出窗口 "机制的计划,以告知用户人工智能可能产生的缺陷或错误。该文件还强制要求在深度伪造产品上标注永久唯一的元数据或其他标识符,以防止滥用。
除这些措施外,咨询意见还命令所有中介机构或平台确保任何人工智能模型产品--包括大型语言模型(LLM)--不允许存在偏见、歧视或威胁选举过程的完整性。
要求开发商在公告发布后 15 天内遵守公告内容。建议开发者在遵守规定并申请发布产品许可后,可能需要为政府官员进行演示或接受压力测试。
尽管该建议目前不具有法律约束力,但它表明了政府的期望,并暗示了人工智能领域未来的监管方向。
"信息技术部长拉吉夫-钱德拉塞卡(Rajeev Chandrasekhar)说:"我们今天将其作为一项建议,要求你们(人工智能平台)遵守。他补充说,这一立场最终将写入立法。
"据当地媒体报道,Chandrasekhar 继续说:"互联网上的生成式人工智能或人工智能平台必须对平台所做的事情承担全部责任,不能以平台正在测试为由逃避责任。
上一条: 英特尔也有自己的人工智能故事