vs做网站开发吗绛帐做企业网站
vs做网站开发吗,绛帐做企业网站,二手书哪个网站做的好,wordpress的文要登录才能看【前沿技术杂谈#xff1a;迁移学习】欧洲人工智能法案对人工智能开发者的意义 [2023 年 12 月更新#xff3d; 定义、一般原则和禁止做法人工智能系统开发者基于风险的义务固定和通用人工智能开发人员#xff08;第 3/28 条#xff09;基础模型的提供者#xff08;第 28b… 【前沿技术杂谈迁移学习】欧洲人工智能法案对人工智能开发者的意义 [2023 年 12 月更新 定义、一般原则和禁止做法人工智能系统开发者基于风险的义务固定和通用人工智能开发人员第 3/28 条基础模型的提供者第 28b 条生成人工智能模型的提供商第 28b 4 条高风险人工智能系统和分类第 6/7 条 治理和执行12 月修正案和批准最后的评论 TL;DR AI 窥视准备迎接冲击欧盟人工智能法案即将推出这是世界上第一个关于人工智能的立法。想象一下 GDPR但对于人工智能来说。向“基础模型”和“通用人工智能系统”GPAI的法律定义问好。该法案为人工智能实践铺平了道路强制披露并强调“值得信赖的人工智能开发”。疯狂的旅程还不止于此——我们还有义务要遵循“高风险人工智能系统”要仔细审查以及谁是镇上新的人工智能警长的悬念。坚持住这是人工智能立法的一个全新世界
欧洲议会最近投票通过了《欧盟人工智能法案》这是世界上第一部关于人工智能的立法。该立法旨在禁止具有“不可接受的风险水平”的系统并为开发人工智能系统并将其部署到生产中建立护栏特别是在有限风险和高风险场景中我们稍后会讨论。就像 GDPR哦我们怎么不喜欢“接受 cookie”横幅一样该立法从采用2016 年 4 月 14 日到可执行2018 年 5 月 25 日花了几年时间该立法必须经过双方之间的最终谈判。在我们更明确具体的执行时间表之前我们需要先与各个欧盟机构进行磋商所谓的“三部曲”。 作为一名人工智能产品开发人员你可能最不想花时间去理解和遵守法规毕竟你应该考虑一下法律学位呵呵所以我决定熬夜阅读完整的《人工智能法案》——是的全部 167 页概述了在您着手将第一个人工智能产品推向市场时需要关注的要点。
我将在这篇文章中介绍的立法的主要部分和相应的部分是:
定义、一般原则和禁止做法 - 第 3/4/5 条固定和通用人工智能系统和规定 - 第 3/28 条高风险人工智能分类 - 文章 6/7高风险义务 - 第三章第三章透明度义务 - 第 52 条治理和执行 - 第六章/第七章
是时候拿起那杯 ☕ 并准备好处理一些合法的样板文件了
定义、一般原则和禁止做法
与大多数欧盟立法一样《人工智能法》起源于欧盟的一系列委员会。该法案是两个机构的心血结晶即欧洲内部市场和消费者保护委员会“IMCO”和公民自由、司法和内政委员会“LIBE”这两个委员会似乎比开发人员更喜欢冗长的缩写词它们于 2021 年 4 月 21 日首次通过欧盟委员会提出了该法案。
既然我们已经解决了这个问题下面我们就来谈谈人工智能的一些法律定义。
除了定义 “人工智能系统”刻意保持中立以涵盖尚未知晓/开发的技术外立法者还区分了 基础模型 和 “通用人工智能系统”GPAI在最近的版本中被采用以涵盖可应用于广泛任务的模型开发与固定用途的人工智能系统相对。法案草案第 3(1)条规定人工智能系统 是指
…使用[特定]技术和方法开发的软件可以针对一组给定的人类定义的目标生成影响其交互环境的内容、预测、建议或决策等输出。
值得注意的是IMCO 和 LIBE 委员会已将其对 AI 的定义与 OECD 的定义保持一致并在其文章中提出了 GPAI 和基础模型的以下定义
(1c)“基础模型”是指在广泛的数据上进行大规模训练的人工智能模型专为输出的通用性而设计并且可以适应各种独特的任务
(1d)“通用人工智能系统”是指可用于并适应多种应用的人工智能系统但并非有意和专门设计的
这些定义涵盖闭源和开源技术。这些定义很重要因为它们决定了您属于哪个类别以及您作为开发人员可能承担的义务。换句话说如果您是基础模型开发人员您必须遵守的一组要求与通用人工智能系统开发人员不同并且与固定用途人工智能系统开发人员也不同。
GPAI 和基础模型定义可能看起来非常相似因为 GPAI 可以解释为基础模型反之亦然。然而这些术语的定义方式存在一些微妙的差别。这两个概念之间的差异特别集中在训练数据基础模型是在“大规模广泛数据”上进行训练和适应性。此外生成式人工智能系统属于基础模型的范畴这意味着这些模型的提供者将必须遵守额外的透明度义务我们稍后会讨论这一点。
该文本还包括固定用途和通用人工智能开发人员甚至采用者/用户必须遵守的一组一般原则和禁止做法。具体来说第 4 条中采用的语言扩展了定义包括所谓“值得信赖的人工智能开发”的一般原则。它概括了所有运营商即开发人员和采用者/用户尽最大努力开发“值得信赖”我不会列出被认为值得信赖的所有要求但可以在这里找到人工智能系统的精神。本着以人为本的欧洲方针的精神最终获得通过的最新立法版本还包括人工智能开发中禁止和严格禁止的做法所谓的“不可接受的风险”清单例如开发用于某些情况例如绑架或恐怖袭击的生物识别系统、生物识别分类、预测性警务以及在执法或边境管理中使用情绪识别软件。
人工智能系统开发者基于风险的义务
现在事情变得有趣了而且法律术语有点重所以如果你还没有喝第二杯咖啡现在是个好时机。
根据文本任何在欧盟或众所周知的欧盟内部市场销售服务的人工智能开发商都必须遵守一般、高风险和透明度义务采用“基于风险”的监管方法。这种基于风险的方法意味着您需要遵守的一组法律要求以及法律干预取决于您正在开发的应用程序的类型以及您是否正在开发固定用途的人工智能系统、GPAI、基础模型、或生成人工智能。主要需要指出的是不同的基于风险的“桶类别”分为最小/无风险、高风险和不可接受的风险类别以及具有特定透明度的人工智能系统的附加“有限风险”类别义务即 GPT 等生成式 AI
最小/无风险的人工智能系统例如垃圾邮件过滤器和视频游戏中的人工智能将不受限制地被允许。有限风险的人工智能系统例如图像/文本生成器须遵守额外的透明度义务。高风险人工智能系统例如社交媒体平台使用的招聘、医疗设备和推荐系统 - 我在后面的内容中包含了关于高风险人工智能系统构成的整个部分 - 请继续关注是允许的但须遵守规定人工智能要求和合格评定——稍后会详细介绍。我们之前提到过的不可接受的风险系统是被禁止的。 我们根据目前对法规的理解构建了以下决策树您会注意到通用人工智能系统、基础模型和生成人工智能开发人员无论在什么情况下都有一组“始终需要”的义务他们是否被视为高风险。 基础模型开发人员必须披露计算量即总训练时间、模型大小、计算能力等并测量用于训练模型的能耗这与高风险人工智能系统开发人员类似- 还进行合格评定、在数据库中注册模型、进行技术审核等。如果您是生成式人工智能开发人员您还必须记录并披露受版权保护的训练数据的任何使用情况。
固定和通用人工智能开发人员第 3/28 条
大多数人工智能系统不会是高风险的第四章、第九章不承担任何强制性义务因此对开发者的规定和义务主要围绕高风险系统。然而该法案设想制定“行为准则”以鼓励非高风险人工智能系统的开发人员自愿遵守强制性要求。
构建高风险固定和某些类型的通用人工智能系统的开发人员必须遵守一套规则包括如上所述的事前合格评定以及其他广泛的要求例如风险管理、测试、技术稳健性、该法第8条至第15条列出了所有要求此处篇幅较长无法一一列举。作为人工智能开发者您应该特别关注第10条有关数据和数据治理的内容。以第十条第三款为例
培训、验证和测试数据集应具有相关性、代表性、无错误且完整。
作为一名数据科学家您可能会意识到证明合规性是多么困难
另外合格评定如果您必须进行评估 - 请参阅上面的决策树规定您必须在将系统投放市场或投入使用之前在欧盟范围内的数据库中注册该系统。如果您是向欧盟销售产品的供应商您也不能逃脱责任 - 在这种情况下您必须指定一名授权代表来确保合格评定并建立上市后监控系统。
从更技术性的法律角度来看不如果你是通过 API 销售模型或部署开源模型的人工智能平台你并没有完全脱离《人工智能法案》要求 GPAI 提供商积极支持下游运营商实现合规性通过共享有关通用人工智能系统的人工智能模型的所有必要信息和文档。但该规定规定如果下游提供商在高风险人工智能环境下使用GPAI系统则将承担“高风险人工智能系统”提供商的责任。因此假设您正在 AI 平台上或通过 API 运行模型并将其作为下游部署者部署在高风险环境中。在这种情况下您需要承担责任而不是上游提供商即本例中的 AI 平台或 API。唷。
基础模型的提供者第 28b 条
立法者似乎选择了比一般固定用途系统和 GPAI 更严格的基础模型相反生成人工智能系统方法因为不存在最小/无风险系统的概念。具体而言基础模型开发人员必须遵守与风险管理、数据治理以及由独立专家审查的基础模型稳健性水平相关的义务。这些要求意味着基础模型必须经过广泛记录的分析、测试和审查类似于高风险人工智能系统然后开发人员才能将其部署到生产中。谁知道“AI 基础模型审核员”可能会成为 2020 年代最热门的职业。
与高风险系统一样欧盟立法者要求基础模型提供商实施质量管理体系以确保风险管理和数据治理。这些提供商必须在推出模型后长达 10 年内提供相关文件。此外他们还需要在欧盟数据库中注册其基础模型并披露所需的计算能力以及模型的总训练时间。
生成人工智能模型的提供商第 28b 4 条
作为对基础模型开发人员要求的附录生成式 AI 提供商必须披露根据第 52 条该条提供了官方定义中概述的透明度义务人为生成或操纵的内容文本、视频、图像等。深度造假、令人兴奋的内容并实施充分的保障措施防止生成违反欧盟法律的内容。
此外生成式人工智能模型必须“公开一份摘要披露受版权法保护的训练数据的使用情况”。
哎呀我们要做一些严肃的文书工作⚖️
高风险人工智能系统和分类第 6/7 条
鉴于高风险人工智能系统在后代监管中的重要性我已经纳入了高风险人工智能系统的正式定义。开始
高风险系统是对人的健康、安全或基本权利构成重大威胁的人工智能产品需要提供商进行强制合格评定。以下条件满足系统被视为高风险的条件
(a) 人工智能系统旨在用作产品的安全组件或者本身就是附件二所列欧盟协调立法所涵盖的产品
(b) 其安全组件为人工智能系统的产品或人工智能系统本身作为产品需要接受第三方合格评定以便根据以下规定将该产品投放市场或投入使用附件二中列出的欧盟统一立法。
附件二列出了涉及医疗器械、重型机械、安全玩具等监管的所有指令。
此外文本明确规定将以下领域的人工智能系统视为高风险附件三
自然人的生物特征识别和分类关键基础设施的管理和运营教育和职业培训就业、工人管理和自营职业机会获得和享受基本私人服务以及公共服务和福利执法移民、庇护和边境管制管理司法和民主程序
ChatGPT 生成的关于高风险人工智能系统的笑话是合适的全面披露这个笑话是由生成模型创建的。
问为什么《人工智能法案》定义的所有人工智能系统都形成了一个支持小组
答因为他们意识到自己都是“高风险”个体需要一些认真的调试治疗
哈哈。
治理和执行
恭喜您已经完成了我们 Encord 认为是 167 长文档中最相关且值得您熟悉的部分。然而《人工智能法案》将如何实施仍存在许多未知数。相关法律定义和义务仍然模糊引发了人们对实践中如何有效执行的疑问。
例如基础模型定义中的“大规模广泛数据”是什么意思它们对 Facebook AI Research (FAIR) 的意义与对小型研究实验室和一些最近出现的基础模型初创公司如 Anthropic、Mistral 等的意义不同。
目前关于执法的争论围绕着拟议的人工智能办公室的有限权力展开该办公室旨在提供指导和协调联合调查第六章/第七章方面发挥支持作用。与此同时欧盟委员会负责解决各国当局之间有关危险人工智能系统的争端这增加了确定谁将最终监管合规并确保履行义务的复杂性。
显而易见的是违规行为的罚款可能高达 3500 万欧元或全球年营业额的 7%取决于违规的严重程度。
12 月修正案和批准
12月9日经过近15个小时的谈判和近24小时的辩论欧洲议会和欧盟国家达成了一项临时协议概述了《人工智能法案》中人工智能使用的规则。谈判主要集中在不可接受的风险和高风险的人工智能系统上担心过度监管会影响欧洲公司的创新。
不可接受风险的人工智能系统仍将在欧盟被禁止该法案明确禁止在工作场所进行情绪识别以及使用利用个人弱点的人工智能等做法。生物特征识别系统 (RBI) 通常被禁止但出于执法目的在公共场所使用生物特征识别系统 (RBI) 的情况有限。
高风险系统将遵守之前在 6 月制定的大部分关键原则如上文所述并高度重视透明度。然而在极端紧急的情况下执法也有例外允许绕过“合格评定程序”。
另一个值得注意的方面是 GPAI 的监管分为两级。第 1 级适用于所有 GPAI包括维护技术文档以确保透明度、遵守欧盟版权法以及提供培训所用内容摘要等要求。请注意透明度要求不适用于开源模型以及不构成系统风险的研发模型。第 2 级为具有系统性风险的 GPAI 规定了额外义务包括进行模型评估、评估和减轻系统性风险、进行对抗性测试、向委员会报告严重事件、确保网络安全以及报告能源效率。
还有其他几项值得注意的修订包括推广沙箱以促进现实世界的测试和对中小企业的支持。大多数措施将在两年内生效但禁令将在六个月后生效GPAI 模型义务将在十二个月后生效。现在的焦点转移到议会和理事会议会的内部市场和公民自由委员会预计将对协议进行投票预计这主要是一种形式。
最后的评论
更严肃地说《欧盟人工智能法案》是人工智能监管方面前所未有的一步标志着人工智能领域问责和治理的新时代。作为人工智能开发人员我们现在所处的世界中对我们工作的道德、社会和个人影响的考虑不再是可选的而是法律强制规定的。
该法案对我们的实践产生了重大影响要求我们了解监管环境并致力于维护其核心原则。当我们冒险进入这个新领域时挑战在于驾驭该法案的复杂性并将其原则融入我们的工作中。
在人工智能这个动态且快速发展的环境中该法案充当了指南针引导我们走向负责任和道德的人工智能发展。当前的任务绝非简单——它需要我们的耐心、勤奋和承诺。然而正是通过这些挑战我们将塑造一个人工智能驱动的未来优先考虑个人和整个社会的权利和安全。
我们站在新时代的最前沿肩负着将这项立法转化为行动的任务。前面的道路可能看起来令人畏惧但它为我们提供了一个为人工智能行业制定新标准的机会该标准倡导透明度、问责制和尊重人权。当我们踏入这个未知领域时让我们以它所要求的严肃性来对待这项任务坚持我们对负责任的人工智能的承诺并努力实现人工智能成为行善工具的未来。
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/diannao/91935.shtml
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!