联合国教育、科学及文化组织(教科文组织)必须利用哲学的变革力量,倡导国际社会运用批判性思维和道德规范解决当代的问题。联合国成立于1945年,一个前提信念是人类必须在道德和智力上团结起来为和平奠基。哲学在各个人类文明中都发挥着突出的作用,在社会和政治结构、语言和文化交流中留下了不可磨灭的印记。因此,这门学科包含了人类社会所有的不同表征,持续促进人类集体伦理和集体道德意识之间的相互影响。
国际社会致力于提高社会的包容性,教科文组织可以通过哲学和人文学科来实现这一共同目标。我们希望我们的社会如何应对气候变化?我们想从数字革命中得到什么?这些全球趋势迫使我们提出哲学、道德和伦理问题,而只有这些问题得到妥善解答,我们才可能实现可持续和包容性发展的目标。
为了应对这些持续演化的挑战,教科文组织的社会科学及人文科学部门提出了一个框架,将哲学融入社会变革。旨在促进学术界和决策者之间直接的思想交流,以推动积极的社会变革,这对于应对当前的全球趋势至关重要。该计划推动对技术进步及其带来的破坏等重要问题进行伦理反思。
当前由大数据、生物技术和人工智能带来的技术革命就是一个有趣的例子。这些新技术所引发的伦理问题说明,要理解数字时代的人类关系,哲学将发挥举足轻重的作用。如果不利用伦理道德来建立一种全球性的“人性至上”范式,我们就无法确保这些技术将造福于人类社会。如果不加以控制,或者控制的方式未经过所有人的同意,人工智能等技术可能会被滥用,出现种族和性别定性或社会评分,这反而将进一步扩大现实情况与我们所承诺的包容性发展目标之间的差距。最近,教科文组织制定了有史以来首个有关人工智能伦理问题的全球标准,为管理技术发展的伦理问题制定了一个框架和明确的规定。
教科文组织世界哲学日(2023年11月16日)聚焦人工智能在心理健康方面的伦理问题,并以此作为案例,就社会如何为这些技术制定共同的道德框架以造福全人类提出了具体的想法。
当前,全球心理健康形势令人担忧。在心理健康方面,困难不仅在于诊断或治疗。精神疾病对预期寿命的全面影响是一个很难把握的复杂问题,因此想要提高人们的认识尤其困难。世界卫生组织2022年发布的显示,只有4.6%的健康研究关注心理健康,而众所周知,精神疾病患者的死亡率与普通人群相比要高得多。总之,心理健康疾病会导致很高的累积死亡率。
尽可能多地了解精神疾病的影响,将为我们提供更好的医疗视角,而技术和神经科学的进步则为诊断、预防和治疗提供了新的机遇。
另一方面,这些技术进步带来的潜在风险也不容忽视。人工智能的数据处理能力意味着它可以监控个人。即便是为了人们的健康而使用人工智能,这种监控行为也会引发伦理问题。技术进步需要认真、持续的对待。如果对人工智能算法的训练和测试不够细致,训练数据中已经存在的偏见就有可能延续,而这些偏见可能会影响心理健康的诊断和治疗,对于缺乏适当医疗服务安全网的边缘化人群来说,这个问题尤其严重。如果缺乏认真的监督和持续的监测,在促进心理健康关怀方面具有巨大潜力的人工智能可能会在无意间加剧而非缓解不平等。
技术变革造成的认知和伦理问题不容忽视,尤其是身心健康领域的技术应用格外值得关注。了解精神障碍、人工智能相关知识的效度以及患者照护中的伦理责任仍然至关重要。技术进步必须要能减轻脆弱性,同时又不会引发新的风险或加剧社会的功能失调。
驾驭新兴科技,伦理意识势必先行。在提高技术能力的同时,我们始终应当相应地增加伦理责任。鼓励批判性思维和培养新人文主义,对于解决我们这个时代的伦理、智力和政治挑战至关重要。哲学并非是一门可有可无的学科,而是一股全球性的力量,可以为所有人创造一个更加人性化的未来。
进一步探讨人工智能与心理健康
如今,技术的进步以及对大脑功能的进一步了解,为帮助心理健康出现问题的个人开辟了新的可能性。辅助诊断和治疗的新工具不断涌现,在治疗、陪伴、帮助等方面都能派上用场。
然而,无论这些新工具是用于心理健康还是其他领域,它们都是辅助行动的工具,承担着不容忽视的新责任。例如,对话型人工智能代理在精神病学领域的应用,让人们对精神病学家的未来产生了疑问。他们最终会被取代吗?有的人认为患者与人工智能的关系不可能等同于患者与人类心理治疗师的关系。
尽管推动技术普及仍然是一个主要的全球挑战,但能够使用互联网的人们表示,Google AI、Cleverbot和ChatGPT(自然语言处理和对话型人工智能)以及Woebot、Youper和Wysa(用于提供心理健康支持的自然语言处理平台)等人工智能平台拥有某些特定的优势。每个人都可以在线使用这些平台,无需大量的技术专业知识或资源。然而,这些平台的客观性仍然存疑,因为它们始终是人类思想的产物,因此并没有完全摆脱偏见和刻板印象。
事实上,人们对数据库的代表性和算法偏见深表担忧,这是一个亟待解决的大问题。同时,通过人工智能生成的内容滥用信息或传播错误信息的风险也需要加以解决,从而维护在线信息的完整性,保护创造性成果。
我们知道心理健康领域的技术进步会如何改变我们的行为,因此我们必须在伦理方面保持谨慎。至少有两点值得强调。
第一点涉及认知问题。我们对精神障碍的发病机制尚不完全明确。例如,旨在帮助识别疾病、发病机制、疾病进展以及治疗效果的生物标记仍然不尽如人意。因此,我们迫切需要提高对这些领域的认识,因为我们是否能够帮助患者取决于这些知识。因此,对庞大的医学数据库进行算法处理显得尤为重要。算法处理不仅可以分析大量信息,还可以加快检查过程。有关认知的另一个问题在于通过人工智能生成的知识的性质和效度。如果人工智能系统仅依赖神经数据,那么它可能会过度关注精神障碍的生物学维度而忽视其社会维度。有研究表明,心理健康问题与贫困等变量之间具有显着的相关性。因此,人工智能所用数据的来源是一个非常迫切的问题,医护人员如何使用人工智能生成的知识也是十分关键的问题。众所周知,人工智能执行的定量分析与人类专家提供的定性解读之间可能存在差异。
第二点涉及照护问题。在心理健康领域,人工智能、神经技术和某些数字设备提供的支持将影响照护患者的方式。首先是医学诊断。如果不能准确判断患者的精神状况,就无法向患者提供援助。更精细的诊断可以为治疗和照护提供更好的指引,有助于构想新的照护方式。改进诊断还体现在更早地做出诊断,从而能够更早地进行治疗干预,并尽可能地保持患者的生活质量。
广义的照护涵盖对患者的诊治,狭义的照护也至少包括对患者的看护。精神障碍呈现不同的临床表现,例如患有相同抑郁综合征的不同患者可能有不同的行为表现。每位患者的病情都是特别的,这使得日常照护面临更复杂的挑战。数字化工具或配备人工智能的设备(例如智能手机)可以助力日常照护,这些设备能够实时识别情绪,监测个人活动规律、睡眠模式、运动等日常生活的方方面面。这些设备的优势在于实时反馈和交互式监控,可以在必要时刻做出快速响应,对患者发出提醒,从生理、社会和心理角度保证和提高患者的生活质量。
?以上讨论都围绕着伦理学和生物伦理学的一个主要原则展开,即脆弱性原则。然而,在患者的日常生活中,这些旨在解决某些方面的脆弱性的技术,在道德上不应产生新的脆弱性。谈话疗法是否会被可调节情绪的植入式人工大脑装置所取代?如果神经技术发展到允许科学开发大脑,患者是否会永久丧失对自己思维的独占性?出于治疗目的对患者进行善意的监测,是否有可能演变成对其行为的预期性监视,并由此产生对患者意图的推定?
在技术驱动的世界中,让算法管理心理健康,我们主要的伦理关切在于人类在其中的作用。我们必须在叁个层面上采取行动:其一,要对所有从事相关领域工作的人员进行终身教育,培养他们的批判性思维;其二,必须考虑受益人,并使用批判性方法来评估人工智能;其叁,必须认识到技术进步在扩展人类能力的同时,也必然会放大我们的责任。追求技术进步不等同于迷恋技术,就像对技术仔细斟酌也不代表畏惧技术,相反,这反映了人类基本关切中的伦理意识。但我们要注意,在思考当今技术对心理健康领域的作用的同时,不能对未来的技术做出有失公允的批判。
?
本文由上海外国语大学高级翻译学院师生翻译?
?
?
《联合国纪事》不是官方记录。由联合国高级官员以及来自联合国系统外的杰出人才撰稿,作者的观点不代表联合国官方观点。地图或文章中所涉界限、名称以及指名,并不代表被联合国官方认可或接受。?