自动化2025资讯网 - www.zdh2025.com

帮助中心 广告联系 会员注册
热门关键词: 工业物联网  中国制造2025  工业4.0  2025  机器人
人工智能(AI)与机器学习显著进步后,算法能在特定条件下自主纪录,甚至预测事件与活动。 其便利带来的广泛应用影响各种决策,但也凸显各种伦理与技术盲点。

工业4.0下的理想蓝图,无非是希望藉由大数据、机器学习、算法等,架构自动决策系统或是代劳重复性工作,认为如此便可成就完全客观的世界。 但问题是,至少目前的算法和程序设计仍有「人为」的选择和判断。
人工智慧
即便是机器学习或整合,所依赖的也多半还是人为提供的数据库。 正因如此,在部分自动系统出现「决策谬误」后,算法是否附带偏见与压迫性的议题,也引发各界正视与讨论。

据金融时报(FT)报导,尽管透明与民主化是科技的伟大愿景,但近来已有两本新书对算法的运用风险提出警告。

《Algorithms of Oppression: How Search Engines Reinforce Racism》作者,加州大学洛杉矶分校(University of California, Los Angeles)信息研究系助理 教授Safiya Umoja Noble指出,看似客观中立的机器运算,其实也可能于学习人类所提供的数据后,无意识地「再复制」社会偏见与歧视。

上网搜寻「黑人女孩」触目所及可能就是一堆不堪入目的内容,而非裔教授的排序远在白人男性之后。 至于「黑人男孩」则常和犯罪查核的广告一同出现。 更遑论还有白人至上主义对黑人所犯罪行的「统计数据」混淆视听。

Safiya指出,大家常上网找数据,因此容易将其视为公共信息平台,但搜索引擎事实上也是广告媒介。 当然结果排序也受引用数影响,但各家的专利算法,往往能「安排」优先级。

另在《Automating Inequality: How High-Tech Tools Profile, Police, and Punish the Poor》一书中,美国纽约州立大学奥本尼分校(University of Albany, SUNY)政治学教授Virginia Eubanks直言,尽管信息系统不断进步,但潜藏的价值观惯性和双重标准,仍可能在「自动化」的催化下巧妙隐藏,甚至更加恶化。

举例来说,原本意在减低错误与讹诈,增进效率的自动化革命,在现实生活中却不乏反例。 美国印第安纳州这三年来,以「未能配合」自动化为由而驳回的社福申请案便多达100万件。 食物方面的认定错误,机率也从1.5%增为12.2%。

这些案例的最大隐忧是「人为干扰」与「情境盲点」,例如自动化与人工复验间的转衔问题,以及语境的误判,像是清寒父母与不当教养 的判读混淆, 便导致许多儿少保护案的乌龙事件。

对此类衍生问题,专家大多有共识,亦即应让数字技术的使用与开发人员接受伦理训练。 至于具体建议,让参与者组成「多元化」,以扩充样本与数据库,甚至是方案包容性,几乎已是各方共识。
责任编辑:admin

频道精选

最火资讯

百度新闻独家出品

新闻由机器选取每5分钟自动更新

手机:15588886666 邮箱: