崛起 人工智能 (AI)不仅提出问题以及它带来的更多可能性的扩展,还为道德,道德和哲学提出了问题。迎来这项新技术对健康,法律,军事,工作的本质,政治甚至我们自己的身份都具有影响。是什么使我们成为人类,以及我们如何实现自己的自我意识。
“ AI道德” (牛津大学出版社,2024年),由英国哲学家编辑 大卫·埃德蒙兹(David Edmonds),是“哲学特遣队”的论文集,探索了人工智能将如何彻底改变我们的生活以及它将触发的道德困境,并描绘出愉快的理由以及担心的理由的沉浸式画面。在此摘录中, 穆里尔·卢恩伯格(Muriel Leuenberger),苏黎世大学技术伦理和人工智能伦理的博士后研究员,重点是AI如何塑造我们的身份。
她的文章题为“你应该让艾伊告诉你你是谁,你应该做什么?”解释了当今数字平台及其主导的机器学习算法如何;从社交媒体到约会应用程序—可能对我们了解更多的知识。但是,她认为,我们可以相信他们可以为我们做出最佳决定,这对我们的代理意味着什么?
您的手机及其应用程序对您了解很多。您正在与谁交谈,花时间,去哪里,您喜欢的音乐,游戏和电影,外观,看哪些新闻文章,觉得您有吸引力的人,使用信用卡购买的东西以及您采取了多少步骤。这些信息已经被利用来出售美国产品,服务或政客。在线痕迹允许Google或Facebook等公司推断您的政治意见,消费者的喜好,无论您是刺激者,宠物爱好者还是小雇主,您很快就会成为父母,甚至您是否可能患有抑郁症或失眠。
随着人工智能的使用和人类生命的进一步数字化,AI可能会比您知道自己更好地了解您。与用户本身相比,个人用户个人资料AI系统生成的生成可能更准确地描述其价值,兴趣,性格特征,偏见或精神障碍。技术已经可以提供个人对自己不了解的个人信息。 尤瓦尔·哈拉里(Yuval Harari) 当他声称选择AI建议的合作伙伴,朋友,工作,聚会和房屋的合作伙伴,朋友,工作,聚会和房屋将成为理性和自然的观点时,他的观点很夸张。AI将能够将有关您的大量个人信息与有关心理学,人际关系,就业,政治和地理的一般信息相结合,并且可以更好地模拟有关这些选择的可能场景。
因此,似乎可以让您知道自己是谁,应该做什么,不仅在极端情况下,还有更平淡的建议系统和数字分析,这是很棒的。我想提出两个原因的两个原因。
您怎么知道您是否可以信任AI系统?您如何确定它是否真的了解您并为您提出很好的建议?想象一个朋友告诉您,您应该和他的堂兄Alex约会,因为你们两个是一个完美的匹配。在决定是否与Alex见面时,您会反思您的朋友的信任。您可能会考虑您朋友的可靠性(他目前喝醉了并且不清楚吗?),能力(他对您和Alex的了解程度如何,他对浪漫兼容性做出判断有多好?)和意图(他希望您快乐,欺骗您,或者抛弃您的无聊的表亲一个晚上?)。要查看您是否应该遵循朋友的建议,您可能会轻轻询问他:他为什么认为您会喜欢Alex,他认为您两个共同点是什么?
这很复杂。但是对AI的信任判断仍然更加复杂。很难理解AI对您的真正了解以及其信息的值得信赖。事实证明,许多AI系统都存在偏见。例如,他们从培训数据中复制了种族和性别歧视的偏见;因此,我们会很好地不要盲目信任他们。通常,我们不能要求AI解释其建议,并且很难评估其可靠性,能力和开发人员的意图。AI的预测,特征和决策背后的算法通常是公司属性,用户无法访问。即使有可用的信息,它也需要高度的专业知识才能理解它。这些购买记录和社交媒体帖子如何转化为性格特征和政治偏好?由于某些AI系统的不透明性或“黑匣子”性质,即使精通计算机科学的“黑匣子”本质,也可能无法完全理解AI系统。AI如何生成输出的过程在很大程度上是自我指导的(这意味着它在不遵循开发人员设计的严格规则的情况下生成了自己的策略),并且难以解释或几乎无法解释。
即使我们拥有相当值得信赖的AI,仍然存在第二个道德问题。一个告诉您您是谁以及您应该做的事情的AI是基于您的身份是您可以发现&mdash的想法。您或AI的信息可能访问。通过统计分析,一些个人数据以及有关心理学,社会机构,人际关系,生物学和经济学的事实,您可以通过统计分析,一些个人数据以及事实来访问您的生活。但是,这种观点错过了一个重要的观点:我们还选择了我们是谁。您不是您身份的被动主题—这是您积极和动态创建的东西。您会发展,培育和塑造自己的身份。Jean-Paul Sartre举例说,这种身份的自我创造主义方面一直是存在主义哲学的前沿和中心。存在主义者否认人类是由任何预定的本质或“本质”所定义的。没有本质的存在总是不仅仅是您今天的身份。我们一直在创造自己,应该自由,独立地做到这一点。在某些事实的范围内;你出生的地方,你有多高,你昨天对朋友说了什么;您在构建自己的身份并定义对您有意义的东西上是自由和道德上的。至关重要的是,目标不是要发掘唯一的正确方法,而是选择自己的个人身份并为此负责。
AI可以为您提供外部,量化的视角,可以充当镜子并建议采取行动方案。但是,您应该继续掌管,并确保您对自己的身份以及生活方式负责。AI可能会陈述您的许多事实,但是您的工作是找出他们对您的意义以及如何让他们定义您的意思。行动也是如此。您的行动不仅是寻求幸福的一种方式。通过您的行动,您可以选择自己是什么样的人。盲目跟随AI需要放弃自由创造自己并放弃对自己身份的责任。这将构成道德上的失败。
最终,依靠AI告诉您自己是谁以及您应该做的事情可以阻止独立自我创造所需的技能。如果您不断使用AI来寻找自己喜欢的音乐,职业或政治候选人,您可能最终会忘记自己自己做这件事。AI May不仅在专业层面上,而且要亲密地追求自我创造。在生活中选择不错,并理解有意义的身份并使您快乐是一项成就。通过将这种权力分包给AI,您逐渐对自己的生活和最终对自己的身份失去责任。
您有时可能希望有人告诉您该怎么办或您是谁。但是,正如我们已经看到的那样,这是有代价的。很难知道是否或何时信任AI分析和推荐系统。更重要的是,通过将决定分包给AI,您可能无法满足创造自己的道德要求并对自己的身份负责。在此过程中,您可能会失去自我创造的技能,钙化自己的身份,并将您对身份的权力降低给公司和政府。这些问题在涉及您身份的最实质性决策和特征的情况下特别重。但是,即使在更平凡的情况下,最好不时地放置推荐系统,并在选择电影,音乐,书籍或新闻方面更加积极和创造力。反过来,要求进行研究,风险和自我反思。
当然,我们经常做出错误的选择。但这有一个好处。通过将自己暴露于与您目前发展的人不完全一致的影响和环境中。搬到一个使您不快乐的城市可能会破坏您通常的生活节奏,并推动您寻求新的爱好。不断依靠AI推荐系统可能会钙化您的身份。但是,这不是推荐系统的必要特征。从理论上讲,它们的设计旨在扩大用户的视野,而不是通过向客户展示自己喜欢的东西来最大程度地提高参与度。实际上,这不是它们的运作方式。
当AI分析成为自我实现的预言时,这种钙化效果得到增强。它可以慢慢地将您变成AI预测的您,并使AI拾取的任何特征永存。通过推荐产品并展示广告,新闻和其他内容,您更有可能以最初认为适合您的AI系统的方式消费,思考和行动。该技术可以逐渐影响您,从而发展成为您最初成为的人。