我们已知AI带来了诸多严重问题:最常见的批评涉及算法偏见、监控和隐私以及造成失业。AI会将基于偏见和刻板印象的历史关联固化为系统设定,例如判刑算法预测黑人被告再次犯罪的可能性高于白人被告。应用程序会追踪亚马逊司机是否分心。人工智能将替代许多职业,比如皮肤科医生和卡车司机。这些都是值得担忧的问题。
在北京市城市规划设计研究院历史文化名城规划所所长叶楠看来,遗产点的开放让中轴线展示面积更大,景观更美。在其带动下,北京老城越来越多的文化遗产正在推进向公众开放。伴随周边环境的提升,文物建筑本体将得到充分保护,也能与城市功能实现更好协调。
如今,“兰花芬芳”的接力棒已传递到一群年轻人手中。31岁的马晶便是其中之一。出于“想帮点忙”的初心,她加入了志愿队,如今已成为队伍日常运转的骨干,帮助协调社区事务、传达居民需求:“真正投入进来后才发现,服务别人这件事的意义是长久的。”
莎拉是一家退伍军人医院的心理治疗师,她告诉我,“去人格化”如何在她的临床实践中引发了一次关于“错误”的力量,令人惊讶的顿悟。她曾经有一位病人,是一位在军中经历过性创伤的女性。莎拉讲述说,大约在第三或第四周的治疗结束时,那位女性离开时提到自己“可能会很忙”,可能无法继续来治疗。“好像哪里不对劲,”莎拉回忆说,“感觉和平时不太一样。就是觉得不太对。”所以在下周见面之前,莎拉给她打了电话,告诉她自己觉得有些不对劲。莎拉大概是这么说的:“今天的会谈感觉不太一样。我在想是不是我遗漏了什么,或者哪里没听明白。如果你还能再来一次,我觉得我们可以聊聊这个问题。”
科室成立之初有多“窘”?急诊楼里划出了几个房间充当办公场所,科室工作人员只有3名,4张病床都是从别的科室借来的。病患数量不断增加,热带医学科搬了5次家,一步步建成了今天拥有几十张病床、诊疗设备完善的现代化科室。
去人格化危机究竟从何而来?对许多人,答案必定是科技。全球网民日均上网6小时40分钟,对屏幕的沉迷显然妨碍了我们相互了解彼此的能力。但虽然技术负有责任,它并非问题的全部。
最近一份有关聊天机器人疗法的报告颇具代表性:研究人员发现其效果参差不齐。一些用户表示,他们确实觉得机器人能理解自己。一位用户表示:“比起我的家人,这个应用程序真的把我当作一个人来对待。”但也有用户抱怨说,由于机器人不完美的倾听,令他们感到被忽视:“在我处于危机时,它的回复毫无逻辑,也与我写的内容毫无关联,这让我觉得自己没有被倾听。我知道这只是个AI程序,不是真人,但它最终还是让我感觉更糟,而不是更好。”另一位用户这样写道。即使忽视自己的是机器,那种滋味依旧会让人受伤。
当地时间7月26日,美国总统特朗普在社交媒体上说,他当天分别与柬埔寨首相洪玛奈、泰国代理总理普坦通电话,称两国只有结束边境冲突,美国才会考虑与两国达成贸易协议。