在探讨人工智能的伦理和多样性议题时,学术界尤其关注大型语言模型(如ChatGPT)的训练数据和算法中存在的潜在偏见,以及这些偏见如何影响旨在与人类互动的社交机器人设计。其中,社交辅助机器人技术致力于与广泛群体进行交流,玛雅-马塔里奇等专家强调了设计旨在促进个体自我提升的机器人的重要性。这类机器人已成功应用于自闭症患者、特殊需求儿童以及中风康复患者的辅助治疗中。
然而,当前的机器人设计和互动模式未能充分反映社会的多样性。随着有色人种儿童自闭症诊断率超过白人儿童的现象日益显著,社会学者关注到机器人外观设计与互动方式的种族代表性问题。以美国为例,机器人设计的普遍趋势是模仿白色人种特征,这不仅体现在Kaspar机器人等自闭症儿童辅助工具上,也涵盖了学校和博物馆中使用的Nao、Pepper和iCub等机器人。
为何机器人设计倾向于模仿白色人种特征?这一现象背后的原因在于现有的机器人大多基于既有的产品进行改造,其设计选择受到原始开发者决策的影响。通常,这些设计倾向于使用闪亮的白色塑料材质,以简约风格模仿其他科技产品的外观,如初代iPod。这一设计倾向反映了一种“工程想象的局限”,即机器人文化想象与实际设计之间的差异。
社会学家露西-苏奇曼在其关于人机交互的研究中,探讨了机器人形象如何通过文本、图像和电影形成共享的“文化想象”。这一想象主要源于科幻作品,与机器人设计团队对实用性的考量形成对比。詹妮弗-瑞伊、Neda Atanasoski和Kalindi Vora等研究者批评了服务机器人设计中隐藏的性别和种族假设。
将机器人设计为白色(常具女性特征)的传统可以追溯至古代欧洲和工业革命时期。从奥古斯特-维利耶-德-伊索-亚当的《未来的夏娃》到卡雷尔-恰佩克的《罗森的万能机器人》,再到西娅-冯-哈布的《大都会》中的玛丽亚,科幻文学中的机器人形象逐渐定型为女性角色,表现出服从性。这种文化想象的起源或许可以追溯至古罗马时期,奥维德的《变形记》中描绘了皮格马利翁对“雪白象牙”加拉蒂亚雕像的爱慕。
面对这一系列挑战,人工智能伦理和多样性议题的探索不仅限于技术层面,还包括对设计美学、文化想象和历史传统的反思。未来,设计者和研究者应共同努力,推动机器人设计更加包容多样,以满足不同背景人群的需求,促进技术进步与社会公平的和谐共存。