摘要:近年来,人工智能有了长足的进步,我国也在逐步探索人工智能用于行政立法、行政执法与监督、行政决策等领域的辅助作用。应用人工智能系统可以在决策过程中能够提供系统化的逻辑和一致性,确保决策的公正性和平等性。但应用人工智能也可能为行政领域带来新的风险,本文亦为风险的解决方式提供了新的思路。
关键词:人工智能 行政智能化 人工智能监管
在我国,最早将人工智能应用于行政领域可以追溯到20世纪80年代。当时,由朱华荣和肖开权主持,建立了盗窃罪量刑数学模型。而在随后的1993年,赵廷光教授开发了一款实用的刑法专家系统,该系统具备检索、咨询刑法知识以及对刑事个案进行推理判断和定性量刑的功能。现代的人工智能日新月异,我国人工智能技术在多维度百花齐放,在未来的行政立法、行政执法、行政决策等领域将离不开强化学习和深度学习、自然语言处理以及计算机视觉等技术。其中强化学习和深度学习技术在人工智能领域发挥重要作用,这些技术在语音识别、图像处理、自然语言处理等任务中取得了显著的进展,并推动了许多应用领域的创新。自然语言处理(NLP)技术在过去几年中取得了突破性进展。预训练语言模型(如ChatGPT-3)的出现极大地改善了文本生成、机器翻译和对话系统等领域的性能。而在计算机视觉方面的技术突破也助力人工智能在图像分类、目标检测和图像生成等任务上的进展。
在过去的几十年中,人工智能经历了惊人的发展。2022年8月,一位名为Jason Allen的人利用应用Midjourney生成的AI画作《太空歌剧院》,配合自己的后期修改,在科罗拉多州博览会的美术比赛中的“数字艺术”类别中获得了头奖。DeepMind的通过深度学习的AI算法开发出来的蛋白质结构预测程式AlphaFold在2020年的蛋白质结构预测的关键评估大赛中排名第一,在短短几天时间里成功预测了之前需要人类团队几个月甚至一年时间完成的工作,使得用传统方法研究分子生物结构学的科研人员迫不得已另谋出路。随着通义千问、文心一言等背靠大型语言模型技术的通用型人工智能的诞生,法律界出现了人工智能取代法律从业人员的趋势。人们通常认为,人工智能崛起的第一步将会取代社会中重复性多的机械化劳动,但事实并非如此,在科技日新月异的现代化进程中,人工智能却是在艺术、科研、金融等方面大放异彩,未来人工智能亦可能在行政立法、行政司法及行政决策等领域发挥重要作用。
随着人工智能的不断发展,其功能范围将进一步扩大。未来的人工智能系统将集成独立学习功能,并开发多层次、多领域的智能,以期能够一次性解决多个问题领域的综合性算法。本文认为,人工智能有可能真正取代大部分人类劳动。回顾过去,第一次、第二次和第三次工业革命给农民工、蓝领工人和服务行业带来了巨大的变革。而当前正在进行的第四次工业革命将涉及人工智能、机器人、生物技术、纳米技术和自动驾驶汽车等领域。在这些发明中,人工智能极有可能被开发出来,以取代目前一般人类从事的工作。当今世界正面临着从工具替代繁琐工作到人工智能替代智力劳动的过程。
因此,本文将讨论人工智能参与行政决策的可能性和风险性。当人工智能参与行政决策时,带来的好处是多方面的。首先,人工智能技术可以利用大数据分析和模式识别的能力,为决策者提供客观、全面的信息和数据支持,以帮助他们更准确地评估政策的效果和风险,并制定更科学、有效的决策。其次,人工智能能够处理大规模的数据和信息,以高速度和高效率进行决策分析,从而减少了人为错误和主观偏见的可能性。此外,人工智能系统在决策过程中能够提供系统化的逻辑和一致性,确保决策的公正性和平等性,避免了个人偏好和人为因素对决策的影响。最重要的是,人工智能的参与释放了人力资源,使决策者能够更专注于高级的分析、判断和战略性决策,从而提升了行政决策的质量和效果,为公众利益的实现作出积极贡献。综上所述,人工智能在行政决策中的应用具有显著的学术价值和实践意义。
人工智能参与行政决策存在一些风险。首先,数据偏见和不公平性可能会导致人工智能系统产生不公正的决策结果,对特定群体或个人造成不利影响。其次,人工智能算法的复杂性和黑盒性使得难以解释其决策过程和依据,缺乏透明度可能引发公众的质疑和担忧。此外,数据隐私和安全问题也是重要的风险因素,人工智能系统在处理个人数据时需要严格的隐私保护措施,以避免滥用和侵犯个人权利。最后,技术失误和漏洞可能导致系统错误和误判,影响行政决策的准确性和可靠性。因此,需要制定相应的监管和法律框架,确保人工智能参与行政决策的公正性、透明度和合规性,并持续关注和解决相关风险。
人工智能实际上是计算机科学中通过模拟人类智能而形成的一套计算规则。它的核心技术无疑是算法,算法被定义为解决特定问题并以一种有限、确定、有效且适合计算机程序实现的方法。算法是计算机科学的基础,也是人工智能的基础,要降低使用人工智能的风险,就要从规制人工智能的算法入手。
自2021年以来,全球人工智能在政策、技术、应用和治理等方面都有了新的进展。2021年中国国家新一代人工智能治理专业委员会发布了《新一代人工智能伦理规范》。该规范的目的是将伦理道德原则融入人工智能的全生命周期,为从事人工智能相关活动的个人、机构等提供伦理指引。同年,中国根据《关于加强互联网信息服务算法综合治理的指导意见》和《互联网信息服务算法推荐管理规定》等文件,正在逐步建立算法综合治理体系。中国信息通信研究院之后发布了《人工智能白皮书(2022年)》,其中详细介绍了全球人工智能的最新动向。
目前,人工智能在行政领域的应用主要处于感知智能阶段,即基于程序设定和数据学习的初级智能。它在特定环节通过人机交互发挥作用,被归类为弱人工智能阶段。然而,人工智能在行政决策和管理中的潜力引起了人们的关注,并在相关领域进行了初步的应用探索。在国外,人工智能在司法领域的应用可以追溯到20世纪70年代。发达国家如美国在那个时期就已经开始研发基于人工智能技术的法律推理系统、法律模拟分析系统和专家系统,并将其应用于司法实践。
人工智能可以自动化进行一些繁琐的工作,如文书起草、文件整理等,可以减轻调研人员、决策人员和执法人员的工作负担,提高工作效率。人工智能可以通过数据分析和模型训练,辅助各方作出更精确的决策。例如,在进行行政工作的过程中,人工智能被认为具有预测事件结果并为各个环节的公务人员提供辅助意见的潜力。
2018年,上海进行了智能信号灯系统的试点项目。这样的智能信号灯系统利用先进的感知技术和数据分析算法,能够更准确地识别和预测交通流量、拥堵状况以及交通需求,从而实时地调整信号灯的配时,以达到最佳的交通组织效果。相较于传统的固定配时方案,这种智能系统可以更加灵活地应对交通流量的变化,减少交通拥堵,提高路网的通行效率。
具体而言,在行政立法的过程中。人工智能可以辅助立法代表进行:一、数据收集、分析与处理工作。人工智能可以利用大数据分析和机器学习技术,对各种相关数据进行深入分析和挖掘,揭示潜在的模式和趋势。这可以为行政立法者提供有关特定政策领域的定量数据和趋势预测,以支持其制定合理和基于证据的法规和政策。二、宏观分析、智能决策工作。人工智能系统可以帮助行政立法者评估不同政策选项的影响和效果。通过模拟和模型预测,人工智能可以模拟不同政策方案的结果,评估其对社会、经济和环境的影响,从而辅助决策者作出更明智的决策。三、法律研究和分析工作。人工智能可以帮助行政立法者进行法律研究和分析,加快对现行法规的审查和解读。通过自然语言处理和信息抽取技术,人工智能可以快速从大量法律文本中提取关键信息和判例,为立法者提供法律依据和参考。四、风险评估与监测工作。人工智能可以用于行政立法过程中的风险评估和监测。它可以对潜在的风险因素进行识别和预测,帮助立法者在制定政策和法规时考虑风险因素,并采取相应的措施进行监测和调整。
而在行政执法方面。人工智能有能力帮助执法人员进行:一、数据分析与监测。人工智能可以利用大数据分析和机器学习技术,对各种相关数据进行深入分析和挖掘,以监测和发现潜在的违法行为模式和趋势。通过数据分析,执法机构可以更准确地确定执法重点、优化资源分配,并及时采取相应的行动。二、预测和预防犯罪。基于历史数据和模式识别,人工智能可以预测潜在犯罪活动的发生概率和地点。这有助于执法机构采取针对性的预防措施,加强巡逻和安全防范,减少犯罪发生的可能性。三、智能监控和识别。人工智能技术可以应用于监控摄像头等设备,进行智能监控和识别。通过图像识别和行为分析,人工智能可以自动检测可疑活动和行为,并及时发出警报,以支持执法人员的决策和行动。四、危机评估与资源管理。通过数据分析和模型预测,人工智能可以帮助执法机构评估不同区域或领域的风险程度,合理分配执法资源,提高执法效率和成效。
最后,在行政政策落实和行政决策方面。人工智能可以在下面两个方面辅助行政人员:一、自动化许可和审批。人工智能可以应用于许可和审批流程的自动化,提高办事效率和减少人为错误。通过自然语言处理和机器学习技术,人工智能系统可以自动处理符合规定的许可申请和审批流程。二、提供数据驱动的决策支持。人工智能可以通过对大数据的分析,提供数据驱动的决策支持。在行政决策过程中,可以利用人工智能技术分析和预测不同决策选项的结果和影响,帮助决策者作出更明智和科学的决策。
但在将人工智能应用于行政全过程的同时,我们也必须认识到潜在的风险和挑战。考量引入人工智能到行政治理中可能带来的法律风险是非常重要的,这样的考量有助于我们更加全面地审视人工智能的潜在影响,并为其提供相应的制度规范。
第一,人工智能运行过程与现有法律存在冲突。人工智能的决策可能与现有法律不一致,比如在涉及隐私、版权或知识产权等方面,可能出现一些问题。人工智能在训练过程中需要获取大量信息与数据,这些“获取途径”很可能带来侵权问题。若人工智能技术绝对中立,则可能导致人工智能输出的内容会在操作者不了解相关法律的前提下违法。此外,人工智能技术的发展速度非常快,而法律往往滞后于技术的发展。现有的法律框架难以及时适应人工智能技术的新应用和挑战,导致存在法律空白或不足以覆盖人工智能运行过程中的特定情况。
第二,由于算法黑箱的存在,人工智能参与决策缺乏足够的透明度。人工智能决策的过程和结果往往是不透明的,这会给行政公正性和透明性带来其他挑战。算法的黑箱问题一直是实务界面临的主要难题,这些黑箱导致人工智能使用者和操作者难以解释和理解人工智能生成的具体决策的依据。这也使得人工智能系统在产生错误或不公正决策时的责任追究变得困难,现有的法律框架往往无法明确规定人工智能系统的责任界定和透明度要求。算法的不透明性大致存在三种情形:一是由于人工智能本身的算法内部运行无比复杂,同时叠加技术的不成熟缘故,最终导致了算法的不透明性;二是因国家秘密、商业秘密等保密需求而形成的不透明性。从第二点来看,不透明的行政数据可能导致人工智能无法顺利地应用在行政领域,此前无论是行政立法、执法还是决策过程,政府单位内部的数据一般都不会对外界完全公开,而要求人工智能训练已有数据时,则可能导致人工智能无法获取全面数据。
第三,人工智能运行中缺乏合理的归责原则。法律责任的本质是追究行为主体的责任和责任承担,而不具有可解释性的人工智能无法自我答责。从目前的技术层面来看,人工智能本身无法直接承担法律责任。法律责任通常由人类行为主体承担,例如算法的设计、开发和使用者等。这些人类行为主体既然参与人工智能系统的设计、培训数据的选择和处理、决策结果等方面,也就应该承担相应法律责任。但在实务中,难以确定在人工智能辅助行政工作中真正的答责者。一方面,人工智能辅助行政过程中出现错误的原因可能十分多样。可能由于人工智能的代码输入错误,可能是使用者在输出最终内容时出现的失误;还可能是人工智能在训练过程中出现错误,而这部分又分为人工智能训练者即编程者的算法设计错误,以及提供的相关行政数据错误,而数据错误又可分为不完整的数据导致的错误和不真实的数据导致的错误。最终导致人工智能辅助行政领域的归责原则较为模糊,在无法确定最终责任人的情况下,可能会对人民群众的正常生活、工作造成损失而难以弥补。
四、低质量的训练数据可能导致人工智能决策的不准确。比我训练数据可能掺杂基于性别或社会经济地位的偏见。如果这些偏见不被识别和纠正,那么人工智能决策可能会对特定群体产生负面影响,并对司法公正性产生质疑。而人工智能的决策不透明则会进一步导致人工智能决策失真,由于价值平衡、技术有限以及民众知识差异等因素的制约,算法的公开程度都十分有限。这种限度不仅体现在由计算机技术人员和政府专业人员组成的审查机构审查的广度和深度有限,还体现在审查结果必须尽量避免损害私人权利以及抑制新技术创新的负面效应。由于缺乏足够的因果逻辑,可能会导致看似存在正负增长关联的事件之间实际上是一种虚假关联关系,从而可能错误地揭示社会规律。另外,由于人工智能无法清晰地了解决策规则并参与其中,人们只能被动接受决策结果,这往往会导致算法偏见无法纠正而形成“滚雪球”效应,使得数据的负面影响危及更多人。
除了上述不利因素之外,人工智能应用引发的社会接受度和道德考量也是一个重要的风险。人们可能对由人工智能作出的决策感到不信任,担心其可能削弱人类判断和价值观。此外,人工智能技术的滥用或不当使用也可能引发伦理和社会问题。如何平衡人权和安全、如何保障公正和公正性等等,需要在法律框架和伦理原则的指导下进行应用和监管。
在行政领域应用人工智能虽然可能极大程度提高行政效率和公正度,但也出现了不少风险,因此,需要制定相应的监管和法律框架,确保人工智能参与行政决策的公正性、透明度和合规性,并持续关注和解决相关风险。
针对人工智能的训练数据低劣问题,建议加强数据质量控制。加强对行政数据采集和整理过程的监管,确保数据的准确性、完整性和代表性。采用有效的数据清洗和校验方法,修复错误和缺失的数据。此外,应当在制作训练数据集时注意整合来自不同源头的数据,提高数据的全面性和多样性。多源数据融合可以帮助降低单一数据源的偏见和局限性,以此为方法可以有效降低数据的不确定性。还要建立数据审查 机制。对行政训练数据进行定期审查和评估,发现并纠正潜在的问题和偏差,及时发现并处理数据质量问题。
而针对算法不透明所可能导致的问题,在人工智能的使用全过程应当确保人工智能算法的决策过程具有透明度和可解释性,使相关人员能够理解算法是如何得出决策结果的,从而能够发现和纠正潜在的失真问题。通过行政手段对人工智能算法进行审查、评估和备案,可以确保算法的合规性和安全性。这些措施旨在引导企业和研发机构遵守伦理规范,确保算法的透明性、可解释性和可控性,并保护用户的权益。具体来说,可以建立透明度要求的法律和政策框架,要求人工智能系统的开发者和运营者提供足够的解释和说明,以使人工智能系统的决策过程可以被理解和审查。这可以包括要求记录和追溯决策过程、提供可解释性的算法和模型等。此外,还应当鼓励人工智能算法的开放源代码,促进研究人员、专家和社区的参与,共同审查和改进算法的设计和实施。通过开放合作的方式,可以增加算法的透明度和可信度,减少潜在的问题和误解。
而针对责任人不清晰所带来的困境,也能通过事前防范来解决。在人工智能应用中,制定详细的合同和协议来明确各方的责任和义务。这可以包括明确合同条款,确保各方在使用人工智能系统时遵守相关法律、道德和伦理规范,并明确风险分担和责任追溯机制。明确人工智能应用中的责任分配和追溯机制。这包括确定主体责任,明确开发者、运营者、使用者和监管机构等各方的责任范围和义务,确保每个参与方都承担相应的责任。在企业和个人使用的人工智能中,保险机制往往会是一个合理且合法的兜底选择。而在行政领域中,能用金钱所弥补的损失也能通过保险机制来转移人工智能的使用风险。建立相应的保险机制,确保在人工智能应用中的责任能够得到适当的补偿和分担。该措施包括的责任保险,可以为各方提供相应的保障和赔偿机制,以应对潜在的损失和纠纷。
最后,针对使用人工智能技术可能违反现行法律的问题,建议建立人工智能的标准和认证机制。确保人工智能的内容公平性、准确性和可解释性。本文建议除了加强内部监管以外,还应当通过独立的审查、评估和认证机构来对人工智能编译、人工智能训练、人工智能运行的全过程实施监督。对人工智能输出内容进行必要的抽样审核和验证,以确保其符合相关的法律和伦理要求。
中国目前在人工智能监管方面主要采取着行政手段,以促进人工智能的健康发展和保护用户权益,当前还没有普遍性的高额处罚措施,主要以规范引导为主导。随着技术和监管的进一步成熟,可能会有更多的制度和措施出台来加强对人工智能算法的监管。虽然暂时没有普遍性的高额处罚措施,但通过政策辅助引导,可以促使企业和研发机构自觉遵守相关规定,提高算法的质量和安全性。同时,随着人工智能技术的不断发展,相关法律和监管机制也在逐步完善,可能会出台更具体和严格的制度和处罚措施来应对违规行为。
在未来的人工智能行政领域应用中,还要重视对相关的培训和教育的供给。提高使用人工智能系统的从业人员和决策者的责任意识和专业知识。这包括培训他们了解人工智能系统的工作原理、局限性和潜在风险,以及如何应对和管理相关责任。通过增强参与者的总体素养和意识,可以大大降低人工智能辅助行政工作的风险。
当前,我国处于近代以来最好的发展时期,世界正经历百年未有之大变局,两者同步交织、相互激荡。近年来,中国陆续发布《新一代人工智能发展规划》《促进新一代人工智能产业发展三年行动计划》《关于加快场景创新 以人工智能高水平应用促进经济高质量发展的指导意见》《关于支持建设新一代人工智能示范应用场景的通知》等多个政策文件,为人工智能核心技术攻关、产品落地应用以及探索发展新模式新路径提供了重要支持。在大力推进人工智能发展的同时,更要注意人工智能在应用于行政领域时可能出现的问题和矛盾,通过统筹协调、顶层设计,在立法环节对人工智能的使用和适用环节予以规制,对人工智能的算法予以最大程度的公开,让人工智能成为行政立法、执法、决策的有力助手。