• 移动端
    访问手机端
    官微
    访问官微

    搜索
    取消
    温馨提示:
    敬爱的用户,您的浏览器版本过低,会导致页面浏览异常,建议您升级浏览器版本或更换其他浏览器打开。

    欧盟发布最新监管框架,通过风险分级严格管理AI应用

    来源:未央网 2021-04-27 09:22:08 欧盟 AI 金融AI
         来源:未央网     2021-04-27 09:22:08
    金融AI

    核心提示2021年4月21日,欧盟委员会针对人工智能(AI)应用提出了一份全新的监管草案和协调行动规划,希望通过灵活解决AI系统带来的特定风险,保证AI技术的安全可持续使用。

    2021年4月21日,欧盟委员会针对人工智能(AI)应用提出了一份全新的监管草案和协调行动规划,希望通过灵活解决AI系统带来的特定风险,保证AI技术的安全可持续使用。

    文件显示,欧盟计划将AI技术应用按照风险等级进行划分:

    不可接受的风险:指对人类安全、生计和权利造成威胁的AI系统,包括操纵人类行为以规避用户自由意愿(例如使用语音辅助技术鼓励未成年人做出危险行为的玩具)和允许各国政府进行“社会评分”(Social Scoring)的系统。这类系统将被完全禁用。

    高风险:

    • 关键基础设施(例如交通运输设施)类,可能会给公民生命和健康带来风险的AI应用;
    • 教育或职业培训类,可以决定某人获得教育和专业课程渠道的AI应用(例如考试得分);
    • 产品的安全组成部分(例如在机器人辅助手术中的AI应用);
    • 就业、人工管理和自雇员工渠道(例如招聘程序的建立分类软件)的AI应用;
    • 基本私人和公共服务(例如拒绝公民获得贷款机会的信用评分)的AI应用;
    • 可能会干扰公民基本权利的执法(例如评估证据可靠性)的AI应用;
    • 迁移、收容庇护和边界控制管理(例如验证旅行证件真实性)的AI应用;
    • 行政司法和民主程序(例如将法律应用于一个具体事实)的AI应用。

    高风险AI系统在进行应用之前必须履行一系列义务,包括进行严格的风险评估、通过高质量数据更新最大限度地降低风险和歧视性结果、详细进行活动记录确保结果的可追溯性、增加适当的人工监督等等。

    除此之外,所有远程生物识别系统都被认为是高风险的AI应用,原则上禁止在公开可访问的空间中使用这类系统,但是仍然存在一些特例情况(例如找寻走失儿童,防止特定和即将到来的恐怖主义威胁,或检测、定位、识别或起诉犯罪者或嫌疑人的严重刑事犯罪行为)。这种使用需要得到司法或其他独立机构的授权,并在时间、地理和数据使用范围等领域受到严格限制。

    有限风险:即具有特定透明义务的AI系统,例如在使用聊天机器人等AI系统时,用户应该意识到它们是在与机器进行交互,他们可以采取明智的决定继续或退出。

    最小风险:新规允许自由使用诸如AI驱动的视频游戏或垃圾邮件过滤器等应用程序。绝大多数AI系统属于这一类别。

    此前欧盟方面曾表示,计划每年通过“数字欧盟”和“欧盟地平线”等项目向AI领域投资10亿欧元,同时每年在AI领域吸引投资200亿欧元。


    责任编辑:Rachel

    免责声明:

    中国电子银行网发布的专栏、投稿以及征文相关文章,其文字、图片、视频均来源于作者投稿或转载自相关作品方;如涉及未经许可使用作品的问题,请您优先联系我们(联系邮箱:cebnet@cfca.com.cn,电话:400-880-9888),我们会第一时间核实,谢谢配合。

    为你推荐

    猜你喜欢

    收藏成功

    确定