随着世界范围内的公司采用人工智能(AI),随之产生了一系列需要考虑的因素,包括如何帮助员工上进新的角色,188 app ,等等。下面我们来看看人工智能法规,这些法规开始受到全球政府机构的高度重视,包括美国金融监管机构、美国联邦贸易委员会和欧盟委员会。

最近的哈佛商业评论文章解压缩与AI条例相关的一些最新的发展以及预测“新法律即将塑造公司如何使用人工智能的商业领袖。

在金融监管机构发布了一系列新指令后,美国联邦贸易委员会(FTC)最近发布了新指令指导方针关于人工智能的“真相、公平和公平”,文章称其“超乎寻常的大胆”。欧盟紧随其后,提议对不合规的公司处以高达其年收入6%的罚款,高于GDPR不合规规定的罚款。

那么,你到底能做些什么来确保你的人工智能计划保持正轨呢?

据文章说,答案并不那么简单。事实上,大多数公司都试图改进和保持竞争力的发现,使得不可避免地转向人工智能(AI)技术挑战足够挑战,而不考虑到当前和未来的政府法规。为了帮助您浏览这些未知的水域,哈佛商业评论提供了三个“具体行动”,贵公司可以采取:

  1. 进行风险评估

理解本文所指的“高风险”算法正迅速成为使用人工智能的一项要求。例如,当公司将处理大量个人数据作为人工智能计划的一部分时,他们需要了解任何意外结果以及如何解决这些结果,包括明确描述潜在问题和解决方案。

  1. 问责制和独立性

根据HBR的说法,公司可以通过测试风险测试和涉及不同激励措施的不同利益相关者来最大限度地减少风险并提高AI问责制。这超出了仅涉及项目中的数据科学家以及包括律师和其他类型的技术角色。

  1. AI系统的持续审查

人工智能的风险管理是一个持续的过程,要求企业在完成初步影响评估后很长时间内继续审查系统。这是因为人工智能系统是“脆弱的”,风险会随着时间的推移而增加。因此,企业永远无法完全降低与人工智能相关的风险,这要求它们进行全面和持续的系统审查。

要了解更多关于收入的AI规则,请阅读188 app .