首页 ICI内控快讯文章正文

驾驭人工智能前沿:有效治理的策略 由于监管仍处于早期阶段,使用人工智能的公司现在最好建立坚固的护栏

ICI内控快讯 2024年03月07日 19:58 247 内控网

作者:Lou Bachenheimer

2024123

7.3.jpg

  预计到2030年,全球人工智能市场将以每年30%以上的速度增长,而多达80%的企业正在使用人工智能或积极探索是否部署人工智能。在缺乏强有力的监管来规范负责任地使用这项技术的情况下,首席技术官Lou Bachenheimer探索了公司如何自我监管——目前为止。

 

  在人工智能方面,如何拥抱负责任的创新是公共和私营组织的首要考虑。随着政府努力制定符合道德的人工智能开发指导方针,行业重量级人物也一致认为需要在新工具上设置护栏,现在是开始在贵公司建立人工智能管理框架的时候了。

 

  虽然白宫关于人工智能的行政命令确立了指导人工智能使用的原则,但平等就业机会委员会(EEOC)和联邦贸易委员会(FTC)等联邦机构正在现有指导范围内完善规定。与此同时,包括谷歌、MetaOpenAI在内的知名人工智能公司已承诺维护有关安全、安保和透明度的新标准。这些措施代表了美国在世界各国政府为负责任地推进人工智能建立法律和监管基础的更广泛努力中采取的初步措施。

 

  一些国家制定了包括治理考虑在内的国家人工智能战略。例如,加拿大的人工智能指南强调负责任地开发和使用人工智能造福社会,包括与人工智能伦理、透明度和问责制有关的举措。欧盟的人工智能法案被视为世界上第一部保障用户权利的综合性法律。它似乎还将从道德上规范欧洲及其他地区人工智能应用程序开发商不断发展的需求。

 

  对于在美国经营的企业来说,有关人工智能的监管环境仍然不明确。然而,积极主动地建立利用人工智能的最佳实践并启动风险管理工作,将使您的组织为未来的人工智能监管做好准备。通过建立健全的人工智能治理框架,组织可以在整个人工智能开发和部署过程中灌输问责制、责任感和监督。这反过来又促进了道德和透明的人工智能实践,增强了用户、客户和公众之间的信任。

 

人工智能治理的路线图

 

  你很可能与聊天机器人进行过互动,或者使用了生成人工智能,或者你的公司使用了人工智能驱动的业务流程。随着人工智能在日常生活中越来越不可或缺,组织必须解决对道德、法律和社会影响的担忧。可以采取一些步骤来评估业务工作流程,并确定人工智能技术应在您的组织中使用的位置以及潜在的业务风险。

 

  归根结底,在治理方面,从首席执行官、首席信息官到一线员工,每个人都有责任:

 

  自上而下:有效的治理需要高管的支持,以提高数据质量、安全性和管理。商业领袖应该对人工智能治理和责任分配负责,审计委员会应该监督数据控制。您可能还想任命一位在技术方面具有专业知识、能够确保治理和数据质量的人作为首席数据官来领导这些工作。

 

  自下而上:各个团队可以负责他们管理的数据安全、建模和任务,以确保标准化,从而实现可扩展性。

 

  建模:一个有效的治理模型应该利用持续的监控和更新来确保绩效满足组织的总体目标。应将安全作为最优先事项来提供访问权限。

 

  透明度:跟踪人工智能的表现同样重要,因为它确保了利益相关者和客户的透明度,是风险管理的重要组成部分。这可以(也应该)让整个企业的人参与进来。

 

  人工智能伦理和治理领域仍在发展,包括政府、公司、学术界和民间社会在内的各种利益相关者继续合作,为负责任的人工智能开发和部署制定指导方针和框架。

 

最佳实践

 

  虽然这是美国人工智能监管领域的早期阶段,但自我监管现在可以帮助您的企业识别和减轻潜在风险,如数据隐私问题、人工智能算法中的偏见和安全漏洞。

 

  许多科技公司都制定了自己的人工智能道德准则和原则。例如,谷歌的人工智能原则概述了其开发人工智能以造福社会、避免伤害、确保公平和问责的承诺。微软、IBM和亚马逊等其他公司也发布了类似的指导方针。

 

  组织在建立人工智能治理时可以采用以下几种战略方法:

 

  开发指南:为开发人工智能模型建立监管制度和最佳实践。定义可接受的数据源、培训方法、功能工程和模型评估技术。从理论上的治理开始,根据预测、潜在风险和收益以及用例建立自己的指导方针。

 

  数据管理:确保用于训练和微调人工智能模型的数据准确且符合隐私和监管要求。

 

  偏见缓解:在人工智能模型中纳入识别和解决偏见的方法,以确保不同人口群体的结果公平公正。

 

  透明度:要求人工智能模型为其决策提供解释,特别是在医疗保健、金融和法律系统等高度监管的优先领域。

 

  模型验证和测试:对人工智能模型进行彻底的验证和测试,以确保它们按预期运行并达到预定义的质量基准。

 

  循环中的人类:持续监控已部署的人工智能模型的性能指标,并对其进行更新,以适应不断变化的需求和安全法规。鉴于生成人工智能的新颖性,将人类监督纳入其中以验证人工智能的质量和性能输出是很重要的。

 

  版本控制:跟踪您的人工智能模型的不同版本,以及它们相关的训练数据、配置和性能指标,以便您可以根据需要复制或扩展它们。

 

  风险管理:实施安全实践,保护人工智能模型免受网络安全攻击、数据泄露和其他安全风险的影响。

 

  文档:维护整个人工智能模型生命周期的详细文档,包括数据源、测试和训练、超参数和评估指标。

 

  培训和意识:为员工提供人工智能伦理、负责任的人工智能实践以及人工智能技术的潜在社会影响方面的培训。提高整个组织对人工智能治理重要性的认识。

 

  治理委员会:建立一个治理委员会或委员会,负责监督人工智能模型的开发、部署和遵守符合您业务目标的既定指导方针。至关重要的是,让各级员工——从领导层到人工智能员工——参与进来,以确保全面和包容性的投入。

 

  定期审计:进行审计以评估人工智能模型性能、算法法规合规性和道德遵守情况。

 

  用户反馈:为用户和利益相关者提供机制,以提供对人工智能模型行为的反馈,并在模型错误或负面影响的情况下建立问责措施。

 

  持续改进:将部署人工智能模型的经验教训纳入治理过程,以不断改进开发和部署实践。

 

  人工智能治理是一个持续的过程,需要领导层的承诺、与组织价值观的一致性以及适应技术和社会变化的意愿。在处理这一不断发展的过程中,规划良好的治理策略至关重要,以确保您的组织了解使用这些机器学习技术的法律要求。

 

  建立安全法规和治理政策制度也是确保数据安全、准确和合规的关键。通过采取这些步骤,您可以帮助确保您的组织以负责任和合乎道德的方式开发和部署人工智能。

 

 

来源:ICI内控快讯




近期课程安排:

《国际注册内部控制师CICS资格认证》网络课程学习班:

报名链接:https://www.neikong.com/s/pc/#/course/detail/1527212/1473841/info?parentId=905884

报名电话:400-098-1119    15810764339(微信同号)

联 系 人:孙老师、邱老师

报名咨询二维码 :

企业微信.png


内控网—国际注册内部控制师官方网站—内控®、风控®、首席内控官®、风控在线®、内控网®、内部控制
  • 出版物经营许可证: 京出发京零字第西200036号
  • 内控网®、内控®、风控®、首席内控官®、风控在线®
  • Copyright© 中经安信息科技(北京)有限公司 版权所有 京ICP备08102702号-6
  • 京公网安备110102004017 京B2-20120020