人工智能伦理

Wickey王
作者: 王洁文(Wickey), CISA
发表日期: 2021年10月7日

人工智能(AI)是由机器展示的智能,与人类或动物展示的自然智能相反. 例如, 假设你家里有一台机器,它能理解你喜欢在咖啡里加多少糖,并在你输入足够一致的偏好信息后自动为你加糖. 这些输入就是训练数据集, 机器学习和记忆的方式是通过人工智能算法.

近年来, 随着人工智能/机器学习(AI/ML)的应用越来越多, 由于一些现实的法律和公众的关注,人工智能的伦理已经成为一个热门话题. 例如, in 2019, 监管机构对一家大型金融机构进行了调查,原因是该机构使用了一种人工智能算法,据称该算法歧视女性,在一张信用卡上给予男性比女性更高的信用额度. 另一个例子是由大公司开发的面部识别算法 在检测人的性别时有潜在的偏见吗 由于训练数据集可用.

随着这个话题对澳门赌场官方下载和最终用户都变得越来越重要, 让我们花一些时间从控制和治理的角度来考虑这个主题.

什么是人工智能伦理??
在对84项人工智能伦理准则的审查中,本主题涵盖了11组原则. 它们是透明的, 正义与公平, 因为这, 责任, 隐私, 善行, 自由与自主, 信任, 可持续性, 尊严和团结. 欧盟委员会的人工智能高级别专家组(HLEG)和美国.S. 国家标准与技术研究所, 等, 也为构建“值得信赖的人工智能”制定了标准.在2019年4月发布《澳门赌场官方软件》之后,6月的AI HLEG建议 涵盖四个主要科目:人类和整个社会、研究和学术界、私营部门和公共部门.

如何管理人工智能伦理风险?
就像云风险评估或审计一样, AI/ML行业需要定义责任模型. 有些风险需要由供应商来承担,有些风险需要由客户来承担. 供应商需要考虑类似SSAE-18的风险/审计报告, 同时建议客户端在内部风险/审计范围管理方面有人工智能道德风险计划. 对于那些中小型公司, 他们负担不起自己的人工智能伦理风险项目, 第三方解决方案/外包服务可以填补这一空白.

让我们从流程、人员和技术的角度来看待人工智能伦理:

过程的角度
人工智能审计不会试图解决/识别数据模式缺陷和不完整的算法/缺失的逻辑, 即使是数据科学家和AI/ML开发人员也在努力解决这个问题. 需要利用框架/指南来指导科学家/开发人员在模型设计和测试阶段应该考虑什么,而审计人员需要管理AI/ML开发生命周期过程级别的风险, 更改管理级别和实体级别. 这是为了验证能够执行任务的责任方所遵循的流程,并确保在设计中进行了充分的尽职调查, 测试和修改阶段. 用于特定的AI/ML审计, 提高风险覆盖面, 可以验证数据输入和输出,以确保合理保证AI/ML模型的目的.

人的角度
如果人工智能背后的人不能解决伦理问题, 包含算法和数据集的人工智能不会解决这些问题, 要么. 例如, 如果设计人工智能/机器学习的人不够道德,或者不知道如何从训练数据集中识别潜在的偏见, 算法中可能隐藏着伦理缺陷,训练数据集可能不足以导致期望的目标. 像这样, 人工智能伦理风险项目应建立精心设计的人工智能伦理意识培训课程,并负责将培训应用于所有重要的利益相关者,如数据科学家, 开发人员, 高管, 采购/供应商管理团队和最终用户.

技术的角度
由于AI/ML仍处于采用阶段,每个模型都试图解决特定的业务痛点, 该技术领域在很大程度上仍处于探索阶段. 建议高科技行业开发一些基本的汽车测试解决方案,以覆盖一些基本的人工智能伦理风险,以便通过系统的解决方案采用基本标准.

仍然是一项新兴技术
尽管AI/ML概念已经讨论了很多年, 由于在现实世界中实际采用的速度,该领域仍被视为新兴技术. 当我们一起探索这个领域, 我们希望能把一些想法聚集在一起,建立更多的讨论,推动创新.

编者按: 了解更多关于这个话题的信息 最近领英直播的人工智能会议 并通过ISACA认证 通过了新兴技术(CET)证书.