智能系统得对其身完整性或尊
成伤害或产生负面影响。第三是公平一方面人工智能系统不得加剧不平等造成对个人或群体的歧视或不公平偏见另一方面必须保证针对包含这些歧视性偏见的基于人工智能的决策采取有效的补救措施。最后但并非最不重要的一点是所有这些都意味着负责决策的实体是可识别的决策过程是可解释的因此可解释性或透明度方面要求人工智能系统的能力和目的公开告知和决策-尽可能地-对那些直接或间接受到影响的人来说是可以解释的。遵循自我监管的趋势人工智能治理计划对于以下方面至关重要制定指导方针和政策确保技术的道德。使用和尊重人权透明度和问责制因为只有通过决策过程的透明度才有可能让公司对其行为负责安全和隐私这以保护人工智能系统的强有力措施的定义为前提确保根据现行立法处。理个人数据社会正义通过制定促进公平发展和实施系统的政策法律和监管合规性这是通过治理实现的因为它可以帮助组织遵守与人工智能相关的法律和 意大利 Whatsapp 数据 法规最后是风险管理因为通过治理可以识别和管理与人工智能相关的风险从而减轻风险。治理将使道德原则融入人工智能应用的开发中采用更广泛的企业责任方法。值得注意的是与这一趋势相反一些科技公司面临着。
https://zh-cn.faxdatabase.club/wp-content/uploads/2024/03/images-300x150.png
与道德委员会的有效性和透明度相关的批评。这些委员会经常被指责效率低下没有足够的自主权来做出对流程产生重大影响的决策或者仅用于公共关系目的。一些大型科技公司甚至废除了这些委员会或大幅减少了参与道德治理的人员[]。因此尽管在某些话题上似乎已经达成了理论上的共识但在企业的日常生活中我们仍然充满了许多不确定性。在围绕人工智能的监管演变和调整的场景中很明显治理在促进人工智能的道德使用方面发挥着基础性作用。建立具有普遍指导方针的“道德最低限度”对于确保人工智能道德中不可协商的原则至关重要尊。
頁:
[1]