美国联邦贸易委员会提出 AI 发展建议:不要给消费者带来惊喜

  • A+
所属分类:技术资讯

技术编辑:北京卡尔博客出版:卡尔博客
美国联邦贸易委员会下属消费者保护局局长Andrew Smith本周发表了名为《使用人工智能和算法》的文章。这篇文章旨在给正在开发和使用消费者级人工智能的企业提供一些帮助。
本文的经验主要来自FTC过去的执法措施、行业报告和研讨会,其中最重要的信息之一是建议企业在开发和使用人工智能时不要惊动消费者或自己。
谨慎处理人工智能不仅有助于避免FTC的审查,还会带来一些好处。有助于防止与消费者和业务合作伙伴的关系受损。本FTC的建议主要分为四类。
必须透明。
向消费者说明你的决定。
请确认你的决定是否公平。
确保数据和模型牢固且经验丰富。
尽管这些信息中有很多是关于fcra (《公平信用报告法》 (ECOA (《平等信用机会法》))等FTC实施的行业法律的信息,但许多建议具有更广泛的适用性。
承担企业责任
FCRA,ECOA,1964年《民权法》第7章等长期持续的法律分别适用于消费者报告、消费者信用、投票、教育、提供公共场所等领域的人工智能使用。履行这种法律的义务取决于承认该法律是否适用以及何时适用。
但是,FTC的文章所涵盖的法律并不详尽。除了文章中提到的法律外,还有重要的法律需要完善——健康保险收益和责任法(HIPAA)。
法案设置了一系列安全标准,详细规定了保健计划、供应商和付款中心如何以电子文件形式传输、访问和存储受保护的健康信息。该法案将保障患者信息文件的个人信息存档6年,并详细规定了医疗机关处理患者信息的规定、非法保密原则、通过电子邮件或未经授权的网络取消患者记录的处罚方案等。
通常,当企业是医疗服务提供商、保险人或信息交换中心时很明显,但是决定公司何时成为保险机构的“业务合作伙伴”可能会更困难。
受此次新型冠状病毒爆发的影响,与医疗健康相关的AI产业发展加快,这些企业应该对寻求技术革新的同事更清楚企业应承担的责任。
数据和AI模型的全面评估
文章称,FTC制定了法律和经济标准,以评估是否存在对AI系统的非法歧视。
特别是,该机构审查输入的信息,以确定是否包含“基于种族的因素或此类因素的替代信息”。
文章表示,FTC对使用AI可能引起的歧视相当感兴趣。使用人工智能和算法工具的公司应该考虑是否应该对人工智能的结果进行自我测试,以管理这种模式中固有的消费者保护风险。
但是,FTC不提供此评估的框架,更一般地说,不指出哪些类型的AI歧视风险可以采取措施。尽管如此,企业还是要做出善意的努力,以识别和减少这些风险。
对供应商执行盘点,约束下游用户
FTC的AI指南涵盖了另一个主题。公司必须仔细评估与AI相关的数据和分析的上游供应商如何遵守其法律义务,并相应地限制其客户以不适当或非法的方式使用AI服务。
FTC的目标是侧重于FCRA和ECOA的上游和下游需求,但远离更多管理活动。
在签订人工智能相关业务关系之前,进行尽职调查,在合同条件中明确人工智能系统及数据输入的允许用途,监督业务合作伙伴的成果是实现这一目的的关键。
FTC监督人工智能在经济领域的使用的作用还处于初期,并将继续发展。但是,该机构此次发表的文章为随着科学技术的发展,新兴起的法律和企业自我规制的考虑提供了有用的资料。
参考资料:AD LAW ACCESS Wikipedia:健康保险收益和责任法

发表评论

:?: :razz: :sad: :evil: :!: :smile: :oops: :grin: :eek: :shock: :???: :cool: :lol: :mad: :twisted: :roll: :wink: :idea: :arrow: :neutral: :cry: :mrgreen: