徐琳:人工智能推算技术中的平等权问题之探讨

  • 时间:
  • 浏览:7

   【摘要】 人工智能技术的不断发展与普及使之不可能 或必将全面应用到人类社会的各个层面,但囿于信息的非公开、技术的不选着、法律法规尚不健全以及监管法子 的缺位,在实际应用和推广中,普遍所处着诸如“算法黑箱、算法歧视、算法绑架”等现实那先 的难题,应当通过立法规范、行政监管和行业自治等诸多手段或举措进行有效监管。尤其是人工智能的结构推算系统技术,从而在新技术时代保障公民的平等权,防止技术性歧视行为。

   【中文关键词】 平等权;人工智能;算法黑箱;算法歧视;算法绑架

   一、那先 的难题的提出

   人工智能技术浪潮席卷全球,它让亲戚亲戚让.我的生活和化产法子 得到提升,部整理达国家和地区已制定相应的发展规划,如2016年《美国国家人工智能研究和发展战略计划》,欧盟推出《欧盟机器人研发计划》,英国也发布《机器人技术和人工智能》和《人工智能:未来决策制定的机遇与影响》报告,[1] 2017年7月,我国也发布《新一代人工智能发展规划》,提出面向2060 年中国新一代人工智能发展的指导思想、战略目标、重点任务和保障法子 。[2]从宏观层面看,人工智可以 为城市规划治理、公共安全风险评估、智能犯罪预防、定向扶贫、自然灾害预测及应急等提供决策支持,未来我国将实现智能制造、智能农业、智能金融、智能商务、智能家居等全方面智能化社会。[3]从微观层面看,它已成为当事人日常生活的一偏离 ,在自动驾驶、疾病诊断、人脸识别、智能翻译、投资决策、法律服务等方面都发挥了巨大的作用。对此,亲戚亲戚让.我普遍认为人工智能的应用都可以帮助人类更安全和条理化地开展工作,[4]帮助人类对各事项决策进行理性准确的决断,能助 社会治理体系和手段更为高效、便捷与智能。人工智能技术因能提供“无所可以了”的便利,亦可视为是六个 完美无瑕的“作品”。但就人类的自身发展而言,有时科学技术会是一把“双刃剑”。比如“核裂变”技术的应用,有时可从六个 极端走到另六个 极端。当然,大众舆论目前对于人工智能技术的应用前景,无不充满喜悦与亢奋。但人类应在新技术产生之初,就应保持足够的理性和客观,这会能助 科学系统地分析和判断。任何新技术在被广泛应用和采纳后后,后后 所处六个 过渡期,在这一 过渡期内,要持续不断地自我检测和自我完善,以便更好地接近或吻合人类社会的基本规则,更好地服务于人类社会的可持续性发展。否则,现阶段人类把小量的所谓抉择权(涵盖司法权和行政权)交付给人工智能技术平台,企图利用大数据来遴选或甄别,用以判断或决策公共政策、法律法规和规章制度的可行性和适用性。这极有不可能 带来具有倾向性、片面性和非透明性的结果,并有不可能 被所谓的“科学、系统、全面和客观”的数据或图形加以粉饰或掩盖。嘴笨 该流程涵盖着不合理、不合规的运算体系,如“算法绑架”、“算法黑箱”和“算法歧视”等那先 的难题,最终以貌似科学、合理、合法的法子 ,在广大公众不易察觉的情況下,实施或执行具有针对性的和片面性的抉择或推定。

   二、信息非公开所形成的“算法绑架”行为

   现阶段人工智能领域中再次老会 出现的诸多平等权僭越那先 的难题,首当其冲的是在人工智能运算过程之中再次老会 出现的、被应用的小量数据信息的非公开性所原因分析“算法黑箱”和“算法绑架”的行为。嘴笨 ,关于政务信息不可能 公共信息公开,我国《政府信息公开条例》第一款规定:为了保障公民、法人和这一 组织依法获取政府信息,提高政府工作的透明度,能助 依法行政,充整理挥政府信息对人民群众生产、生活和经济社会活动的服务作用。该法令的宗旨也不对公众知情权的保护,提高公众参与国家、社会事务管理的积极性,有效减少贪污腐败等那先 的难题。该法令的构建是法治信息社会的必然选着。[5]此外,公众“知情权”的再次老会 出现背景是美国联邦政府机构结构消极对待政务信息公开化,任意扩大保密权限的官僚主义。保障公民知情权源于社会契约论或人民主权论,获得应该获得的信息是公民的一项权利,而信息公开也不政府的一种生活义务。[6]不可能 人民这麼知情权,就无法参与和管理国家社会事务,无法监督权力的运行,也就原因分析无法保障自身应有的权利,社会的民主和谐稳定便不可能 遭到极大地破坏。在数据膨胀的信息化时代,“大数据分析”和“机器算法决策”等人工智能技术的应用与社会公共利益紧密相关的信息也完整应该公开。然而,目前当人工智能应用的数据涉及到公共政策和公共利益时,其所应用的数据资料却所处非透明化情況,或是基本所处完整不公开的情況,公众对此完整这麼任何的知情权。

   (一)人工智能数据应用的非透明性的类型和范围

   在人工智能应用领域中的信息非透明性那先 的难题,大致包括两方面:首先是算法系统运行决策过程的非透明化。美国加州大学信息学院的乔娜·布雷尔(Jenna Burrell)在其论文《机器如可“思考”:理解机器学习算法中的非透明性》中细分一种生活形式的内容:“第一种生活是因国家秘密或商业秘密而产生的非透明性,第二种是因技术掌握程度不同而产生的非透明性,第一种生活是算法一种生活的多样化所带来的非透明性”。[7]什么都有有,不仅是社会公众,就连设计者当事人也不能完整掌控算法系统在进行运算决策时每六个 逻辑数据的来源。再次老会 出现此那先 的难题之根源也不,亲戚亲戚让.我会在解释或证明算法结论的因果关系中,始终所处着较大的技术层面障碍。大众可以了看多输入的数据以及得出的相应结论,而对上边的运算过程则一概不知,由此就会原因分析“算法黑箱”或“算法独裁”行为。[8]其次则是数据使用情況的不透明性。当前我国法律仍未对企业整理和利用数据信息的权限边界做出明确的规定,可以了完整保障广大用户对自身数据资料在被使用或应用过程中应享有的知情权和同意权。广大用户根本我想知道当事人的那先 信息被使用以及如可被使用!此外,互联网企业与普通用户之间在当事人信息数据权利上的不对等那先 的难题,原因分析数据容易被滥用。不可能 那先 信息的不公开,公众这麼获得应有的知情权,带来的那先 的难题便是数据分析的算法都可以轻易“绑架”人类的思维,“操纵”人类的意志。

   (二)人工智能应用数据信息非透明化的实证分析

   “电车那先 的难题”老会 以来是法学界中道德判断的那先 的难题,它是指有六个无辜的人被绑在电车轨道上,一千公里失控电车朝亲戚让.我驶来,片刻后就要碾压到亲戚让.我。这一 后后您可以 选着拉六个 拉杆,让电车开到另每根轨道上,否则另六个 电车轨道上也绑了这一 六个 人。在这一 情況下到底如可防止?边沁的功利主义观点认为,当时需作出选着时,牺牲了六个 人拯救多数人的性命是符合社会功利原则的,即满足社会绝大多数人的幸福。而从康德的目的原则出发得出的结论则相反。康德认为人是目的完整后后 工具,五当事人的生命和六个 人的性命这麼轻重之分,可以了以牺牲六个 人的性命来拯救多当事人的生命。假设,现实生活中的人面临这麼选着,且其中五人中也不可能 包涵当事人,不可能 是与当事人相关的亲人或熟人,不可能 是鉴于其中性别、年龄、外貌等的差异,考虑到人性的多样化一面,最后,完整后后 可能 会做出不同的选着,从而产生不同的结果。另六个 的伦理困境在人类决策中是永远这麼标准答案的。不过在正常情況下,亲戚亲戚让.我还是都可以预测他人在作选着时的价值判断,通过那先 缘由来对每个决策进行亲戚亲戚让.我当事人内心的道德和法律评价。不可能 同样的情況再次老会 出现在人工智能决策的背景下,累似 将自动驾驶替代人工驾驶,通过算法来决定最后那先 人会被牺牲时,不可能 人类我想知道算法运行的结构规则,也不选着是基于那先 信息所做出的决策。什么都有有,大偏离 人会完整信任机器算法,嘴笨 机器算法具备能做出最佳效益和最合情理的判断力。不可能 ,这是通过自然科学模式推算出来的,什么都有有亲戚亲戚让.我后后有质疑。否则,当伦理困境不再所处矛盾情況时,这一 决策就不可能 机器算法而具有唯一性,其结果一旦被法律所采纳,对于被牺牲的一方来说会在法律的框架下被“合法”地歧视。否则,一旦人类把社会事务的最终决定权完整交付给人工智能机器算法,就原因分析人类有点儿是亲戚亲戚让.我普通大众从一种生活程度上可被理解为完整受制于算法决策。这后后说也不推论,累似 的事项已真实地所处。2018年3月17日,Facebook公司具有两家关联机构性质的Strategic Communication Laboratories(SCL)和剑桥分析公司(Cambridge Analytica)窃取了Facebook公司大约216万用户的当事人信息,后后构建了六个 可解析美国选民的数据模型,用以提供针对性服务,比如推送千人千面的个性化政治广告。特朗普的数据运营团队将其运用到2016年的大选之中,该项成果被视为特朗普成功当选的一大助力。[9]英国卫报指出,算法和数据库结合在一块儿可形成强大的竞选工具,这一 工具都可以在大选中尽不可能 找出上边选民,并制造更多的“共鸣信息”成功地煽动和说服亲戚让.我。[10]权力资源的掌控者利用数据和算法分析人类的主观偏好,再推送附带此偏好的信息去影响亲戚让.我对事务的判断与决策。然而,广大选民根本无法察觉,亲戚让.我在进行判断衡量之时已被人工智能技术所左右,最终之决策后后说基于自身真实意愿,也不思想被操纵后之产物。人工智能时代人类的生活逐步趋向数字化,控住数据就可自由摆布或左右大众之思想。现在,人类时需意识到在享用人工智能算法决策的好处之时,也须警惕自身对其模式和结果的过度依赖,以防止算法决策“绑架”人类的意志思维。如今,社会资源的掌控者将人工智能技术作为管理社会的工具,如对其未来的发展不加以规范,人工智能技术难免会沦为资本逐利、政治逐权之手段,原因分析歧视和不平等行为在社会中被无形地被放大,社会贫富急剧分化甚至再次老会 出现极权暴政。

   三、“算法绑架”所原因分析的“算法歧视”行为

   如可界定歧视那先 的难题?国际条约对“歧视”做出的定义是:联合国人权事务委员会《关于非歧视的第十八号一般性意见》“不得歧视”第七项指出:本公约中所使用“歧视”一词的含义指基于任何种族、肤色、性别、语言、宗教、政治或这一 见解、国籍或社会出身、财产、出身或这一 身份的任何区别、排斥、限制或优惠,其目的或效果为提前大选 或妨碍任何人在平等的基础上认识、享有或行使一切权利或自由。[11]欧盟对于歧视的定义是:“不可能 某当事人或团体不可能 具有性别、种族和民族、遗传社会形态、宗教、残疾、年龄、性取向等七种社会形态之一,而受到相对不利的对待,不可能 一项貌似中立的条款很不可能 对每各自 或该团体产生不利影响,则视为歧视。”[12]国际人权法认为凡是这一 原因分析具有撤销或损害不可能 均等或平等享有权利的区别、排斥或优惠法子 ,都构成法律上的歧视。[13]在现实生活中,亲戚亲戚让.我在自然生理或社会经济方面所处明显的差异,以上差异不仅难以通过当事人的努力加以克服,否则从根本上决定着社会竞争的成败。不可能 法律无视那先 差异,进而将每各自 视为抽象的和无差别的人格主体,并赋予相同的权利义务,最终将加剧社会阶层与民族群体之间的不公平。[14]

   (一)传统意义上的歧视行为的界定与解析

   可以 看出,歧视的核心应该具六个 特点:第一是客观上具有所处非合理的区别待遇;第二是这一 区别待遇是法律所禁止的;第三是会造成客观上的不公正、不平等的不良后果。[15]

国外学者对“歧视”的理解包括:“第一、歧视是基于偏见所产生的行为,不可能 当事人的偏见而对某团体实施的差别对待。[16]第二、判断是合理的区分还是歧视的标准即”一种生活区别对待不同的人或群体的做法是可以 被允许的还是涵盖歧视性这一 那先 的难题,取决于受到区别对待的各方与否所处累似 的情況,不平等的对待与否基于合理的和客观的标准,以及这一 区别对待与否与特定的情況相称。[17]我国学者对“歧视"”看法主要有:第一、歧视是指被法律禁止的、针对特定群体或当事人实施的、其效果或目的在于对承认、享有和行使基本权利进行区别、排斥、限制或优待的任何不合理的法子 ,(点击此处阅读下一页)

本文责编:陈冬冬 发信站:爱思想(http://www.aisixiang.com),栏目:天益学术 > 法学 > 宪法学与行政法学 本文链接:http://www.aisixiang.com/data/116752.html