Atlas of AI
作者: Kate Crawford
语言: 英文
出版年份: 2021
其他分类: 人工智能
下载链接:
书籍均收集自互联网,仅供学习和研究使用,请莫用于商业用途。谢谢合作。

书籍摘要

《Atlas of AI》是由著名学者Kate Crawford撰写的一部深入剖析人工智能(AI)背后复杂社会、政治和环境影响的作品。本书通过六个章节,从不同维度探讨了AI的构建过程及其对全球的影响,揭示了AI并非仅仅是技术的产物,而是深深嵌入了权力结构、经济利益和文化偏见之中。

一、引言:智能的幻象与现实

书中以19世纪末“聪明的汉斯”这一马戏团马的故事开篇,引出了关于智能、偏见和人类期望的深刻思考。汉斯能够通过蹄子敲击回答问题,但最终被发现其行为是基于驯兽师的无意识提示。这一故事象征着AI领域中一个核心问题:我们常常高估了机器的智能,而忽视了其背后的人类偏见和训练机制。作者借此引出本书的核心议题:AI是如何被构建的,以及这一过程带来了哪些陷阱和问题。

二、地球:AI的物质基础

本书第一章探讨了AI的物质基础,即其对地球资源的依赖。从内华达州的锂矿到印尼的锡矿,再到中国内蒙古的稀土矿,AI的发展离不开对这些稀有矿物的开采。这些资源的开采不仅带来了环境破坏,还涉及战争、劳工剥削和地缘政治冲突。作者指出,AI系统的运行依赖于全球范围内的资源提取,这种提取模式对地球造成了深远的影响,从气候变化到生态系统的破坏,都与AI产业的扩张密切相关。

三、劳动:被隐藏的人类劳动

第二章聚焦于AI背后的劳动问题。AI系统的运行不仅依赖于自然资源,还依赖于大量被隐藏的人类劳动。从亚马逊仓库中被算法监控的工人到为AI系统标注数据的众包工人,这些劳动者的工作被技术的光环所掩盖。作者通过实地考察和案例分析,揭示了AI产业中劳动者的困境,以及技术进步背后隐藏的劳动剥削和不平等。

四、数据:AI的“原材料”

数据是AI的“原材料”,但数据的获取和使用却充满了伦理和政治问题。本书第三章探讨了AI数据的来源,包括从社交媒体平台、政府机构和私人数据库中收集的大量个人信息。这些数据被用于训练AI模型,但往往未经用户同意,且缺乏透明度和监管。作者指出,数据的收集和使用不仅侵犯了个人隐私,还加剧了社会不平等,因为数据的偏见和不完整性会导致AI系统的不公平决策。

五、分类:AI中的权力与偏见

第四章深入分析了AI系统中的分类问题。AI通过数据训练来识别和分类世界,但这些分类往往是基于简化的、有时甚至是错误的假设。例如,AI系统在识别性别、种族和情感时,常常依赖于二元对立的分类方式,忽略了人类身份和情感的复杂性。这种分类方式不仅强化了现有的社会偏见,还可能导致对某些群体的歧视和不公正待遇。作者呼吁对AI分类系统的社会影响进行更深入的反思和监管。

六、情感:AI的情感识别困境

情感识别是AI的一个重要应用领域,但其科学性和伦理性却备受质疑。第五章探讨了情感识别技术的发展历程,从心理学家Paul Ekman关于普遍情感的研究到现代AI系统对情感的自动检测。作者指出,情感识别技术的科学基础并不牢固,且其应用往往忽视了情感的文化和社会多样性。这种技术的应用可能导致对个体情感的误解和滥用,特别是在招聘、教育和执法等领域。

七、国家:AI与国家权力

第六章分析了AI与国家权力的关系。AI技术不仅被用于商业领域,还被广泛应用于国家的军事、安全和治理中。从无人机监控到边境管理,从犯罪预测到福利分配,AI系统的使用正在重塑国家权力的运作方式。作者指出,这种技术的应用不仅加剧了国家对公民的监控,还可能导致对某些群体的不公平对待和人权侵犯。同时,AI技术的军事化应用也引发了对全球安全和地缘政治的担忧。

八、结语:AI的未来与正义

在结语中,作者呼吁我们重新审视AI的发展方向,思考如何在技术进步的同时实现社会正义和环境可持续性。AI的发展不应仅仅追求效率和利润,而应更加关注其对人类社会和地球的影响。作者提出,我们需要建立更加公平、透明和可持续的AI系统,以确保技术的发展能够真正造福人类。

《Atlas of AI》是一部深刻揭示AI背后复杂社会和环境影响的作品。通过对AI的物质基础、劳动问题、数据伦理、分类偏见、情感识别和国家权力等多方面的分析,本书呼吁我们重新思考AI的发展路径,以实现更加公正和可持续的未来。

期待您的支持
捐助本站