作者:宁宣凤 吴涵 吴舸 崔月柳 刘畅
如“全球人工智能治理大变局之欧盟人工智能治理 监管框架评述及启示”一文所述,欧盟《人工智能法案》(以下简称“《AI法案》”)以风险为进路,将人工智能(以下简称“AI”)系统分为不可接受的风险、高风险、有限风险以及极低风险四类。针对每一类AI系统,《AI法案》采取了不同的监管策略,并配以具体的制度使得监管可执行落地。具体而言,针对不可接受风险的AI系统,欧盟禁止任何企业或个人部署。针对高风险AI系统,欧盟允许相关主体在履行事前评估等义务后投放市场或投入使用,并进行事中、事后的持续监测。针对有限风险的AI系统,欧盟虽然不要求相应主体履行事前评估等义务,但其仍需遵循相应的透明度义务。针对极低风险AI系统,相应主体则可依据自由意志部署和使用。
总体而言,AI系统的监管不能以牺牲或放弃AI技术发展为代价。实践中,为了向市场提供符合规定的高风险AI系统,企业一般需要承担极高的费用或负担,而中小企业基于其财力、市场份额、能力等的多重限制,可能无法实现相应的要求。因此《AI法案》还提出了AI监管沙盒等策略,鼓励各企业尤其是中小企业的发展和创新。