作者:RobertTull2024年12月10日监管变化是一个持续的挑战,但它不必成为焦虑的源泉。合规专家和顾问RobertTull分享了一个实...
2025-01-13 161
作者:Lou Bachenheimer
2024年1月23日
预计到2030年,全球人工智能市场将以每年30%以上的速度增长,而多达80%的企业正在使用人工智能或积极探索是否部署人工智能。在缺乏强有力的监管来规范负责任地使用这项技术的情况下,首席技术官Lou Bachenheimer探索了公司如何自我监管——目前为止。
在人工智能方面,如何拥抱负责任的创新是公共和私营组织的首要考虑。随着政府努力制定符合道德的人工智能开发指导方针,行业重量级人物也一致认为需要在新工具上设置护栏,现在是开始在贵公司建立人工智能管理框架的时候了。
虽然白宫关于人工智能的行政命令确立了指导人工智能使用的原则,但平等就业机会委员会(EEOC)和联邦贸易委员会(FTC)等联邦机构正在现有指导范围内完善规定。与此同时,包括谷歌、Meta和OpenAI在内的知名人工智能公司已承诺维护有关安全、安保和透明度的新标准。这些措施代表了美国在世界各国政府为负责任地推进人工智能建立法律和监管基础的更广泛努力中采取的初步措施。
一些国家制定了包括治理考虑在内的国家人工智能战略。例如,加拿大的人工智能指南强调负责任地开发和使用人工智能造福社会,包括与人工智能伦理、透明度和问责制有关的举措。欧盟的人工智能法案被视为世界上第一部保障用户权利的综合性法律。它似乎还将从道德上规范欧洲及其他地区人工智能应用程序开发商不断发展的需求。
对于在美国经营的企业来说,有关人工智能的监管环境仍然不明确。然而,积极主动地建立利用人工智能的最佳实践并启动风险管理工作,将使您的组织为未来的人工智能监管做好准备。通过建立健全的人工智能治理框架,组织可以在整个人工智能开发和部署过程中灌输问责制、责任感和监督。这反过来又促进了道德和透明的人工智能实践,增强了用户、客户和公众之间的信任。
人工智能治理的路线图
你很可能与聊天机器人进行过互动,或者使用了生成人工智能,或者你的公司使用了人工智能驱动的业务流程。随着人工智能在日常生活中越来越不可或缺,组织必须解决对道德、法律和社会影响的担忧。可以采取一些步骤来评估业务工作流程,并确定人工智能技术应在您的组织中使用的位置以及潜在的业务风险。
归根结底,在治理方面,从首席执行官、首席信息官到一线员工,每个人都有责任:
自上而下:有效的治理需要高管的支持,以提高数据质量、安全性和管理。商业领袖应该对人工智能治理和责任分配负责,审计委员会应该监督数据控制。您可能还想任命一位在技术方面具有专业知识、能够确保治理和数据质量的人作为首席数据官来领导这些工作。
自下而上:各个团队可以负责他们管理的数据安全、建模和任务,以确保标准化,从而实现可扩展性。
建模:一个有效的治理模型应该利用持续的监控和更新来确保绩效满足组织的总体目标。应将安全作为最优先事项来提供访问权限。
透明度:跟踪人工智能的表现同样重要,因为它确保了利益相关者和客户的透明度,是风险管理的重要组成部分。这可以(也应该)让整个企业的人参与进来。
人工智能伦理和治理领域仍在发展,包括政府、公司、学术界和民间社会在内的各种利益相关者继续合作,为负责任的人工智能开发和部署制定指导方针和框架。
最佳实践
虽然这是美国人工智能监管领域的早期阶段,但自我监管现在可以帮助您的企业识别和减轻潜在风险,如数据隐私问题、人工智能算法中的偏见和安全漏洞。
许多科技公司都制定了自己的人工智能道德准则和原则。例如,谷歌的人工智能原则概述了其开发人工智能以造福社会、避免伤害、确保公平和问责的承诺。微软、IBM和亚马逊等其他公司也发布了类似的指导方针。
组织在建立人工智能治理时可以采用以下几种战略方法:
开发指南:为开发人工智能模型建立监管制度和最佳实践。定义可接受的数据源、培训方法、功能工程和模型评估技术。从理论上的治理开始,根据预测、潜在风险和收益以及用例建立自己的指导方针。
数据管理:确保用于训练和微调人工智能模型的数据准确且符合隐私和监管要求。
偏见缓解:在人工智能模型中纳入识别和解决偏见的方法,以确保不同人口群体的结果公平公正。
透明度:要求人工智能模型为其决策提供解释,特别是在医疗保健、金融和法律系统等高度监管的优先领域。
模型验证和测试:对人工智能模型进行彻底的验证和测试,以确保它们按预期运行并达到预定义的质量基准。
循环中的人类:持续监控已部署的人工智能模型的性能指标,并对其进行更新,以适应不断变化的需求和安全法规。鉴于生成人工智能的新颖性,将人类监督纳入其中以验证人工智能的质量和性能输出是很重要的。
版本控制:跟踪您的人工智能模型的不同版本,以及它们相关的训练数据、配置和性能指标,以便您可以根据需要复制或扩展它们。
风险管理:实施安全实践,保护人工智能模型免受网络安全攻击、数据泄露和其他安全风险的影响。
文档:维护整个人工智能模型生命周期的详细文档,包括数据源、测试和训练、超参数和评估指标。
培训和意识:为员工提供人工智能伦理、负责任的人工智能实践以及人工智能技术的潜在社会影响方面的培训。提高整个组织对人工智能治理重要性的认识。
治理委员会:建立一个治理委员会或委员会,负责监督人工智能模型的开发、部署和遵守符合您业务目标的既定指导方针。至关重要的是,让各级员工——从领导层到人工智能员工——参与进来,以确保全面和包容性的投入。
定期审计:进行审计以评估人工智能模型性能、算法法规合规性和道德遵守情况。
用户反馈:为用户和利益相关者提供机制,以提供对人工智能模型行为的反馈,并在模型错误或负面影响的情况下建立问责措施。
持续改进:将部署人工智能模型的经验教训纳入治理过程,以不断改进开发和部署实践。
人工智能治理是一个持续的过程,需要领导层的承诺、与组织价值观的一致性以及适应技术和社会变化的意愿。在处理这一不断发展的过程中,规划良好的治理策略至关重要,以确保您的组织了解使用这些机器学习技术的法律要求。
建立安全法规和治理政策制度也是确保数据安全、准确和合规的关键。通过采取这些步骤,您可以帮助确保您的组织以负责任和合乎道德的方式开发和部署人工智能。
来源:ICI内控快讯
近期课程安排:
《国际注册内部控制师CICS资格认证》网络课程学习班:
报名链接:https://www.neikong.com/s/pc/#/course/detail/1527212/1473841/info?parentId=905884
报名电话:400-098-1119 15810764339(微信同号)
联 系 人:孙老师、邱老师
报名咨询二维码 :
相关文章
作者:RobertTull2024年12月10日监管变化是一个持续的挑战,但它不必成为焦虑的源泉。合规专家和顾问RobertTull分享了一个实...
2025-01-13 161
随着数字交易在金融领域的作用日益增强,金融机构在反欺诈工具上的投资也日益增加。尽管在日常数字支付欺诈防范方面取得了一定的成功,但一个新挑战——社交工程...
2025-01-13 148
作者:AnnO’Brien,2024年11月15日美国司法部反垄断局(“反垄断局”)最近更新了其《刑事反垄断调查中的公司合规程序评估》指导文件(...
2025-01-13 215
2024.12.16作者:Dr.OzanOzerk2024年10月7日,英国实施了针对授权推送支付诈骗的强制赔偿规定,标志着消费者保护的新篇章。根...
2025-01-13 202
来源:CPI|日期:2024年11月17日美国司法部(DOJ)发布了修订版的公司合规指导方针,提醒企业注意检察官在评估公司合规计划时日益变化的...
2024-12-06 217
作者:BrooklynCoppinger,NonStopLocal数字记者发布日期:2024年11月17日斯波坎(Spokane),华盛...
2024-12-06 131
货币操作与供应商关系,这起案件为合规官员提供了丰富的思考空间作者:MaryShirley发表于:2024年11月18日一家电信巨头的第二次《反海...
2024-12-06 170
作者:Jeffrey(Jeff)D.Martino、AshleyEickhof、DarleyMaw、ByronTuyay和Stephe...
2024-12-06 142