以军在加沙用AI杀人:杀一名哈马斯高官允许误杀一百平民

2024-05-07 13:12     今日头条

以军在加沙用AI杀人:杀一名哈马斯高官允许误杀一百平民

近日,来自 100 多个国家和地区的官员参加了在奥地利维也纳召开的自主武器国际会议,会议的主题为"站在十字路口的人类",讨论人工智能与军事技术结合的相关话题。

奥地利外长表示,人类正站在一个十字路口,自主武器系统很快将布满世界战场。"我们已经通过 AI(控制的)无人机和基于 AI 的打击目标筛选,见识到了这一点。"

他强调,"谁生谁死的决定权,必须掌握在人类而不是机器手中。"

目前,全球各方都对以色列大规模使用人工智能系统(AI系统)用于战争的行为予以关注。联合国秘书长古特雷斯表示,"人工智能应该用来造福世界,而不是用于战争!"

多名联合国人权专家谴责以色列用AI系统破坏加沙设施、杀伤平民百姓。

以色列的自动化"生死簿"

4月初,以色列杂志《+972》和希伯来语媒体《Local Call》通过对多名以色列前任或现役情报人员的采访揭露,以色列军方一直在几乎无人监督的情况下,使用一款名为"薰衣草"(Lavender)的AI系统来帮助识别可疑的极端分子和目标。报道将以色列用人工智能确定目标,批量杀人的模式称作"大规模暗杀工厂"。

随后,有使用过"薰衣草"系统的以色列情报官员向英国《卫报》证实,该系统在本轮巴以冲突中"扮演了核心角色",识别出约3.7万名与巴勒斯坦伊斯兰抵抗运动(哈马斯),或巴勒斯坦伊斯兰圣战组织(PIJ)有关的目标。

两篇报道都介绍了"薰衣草"AI系统的打分模式--分析以色列情报部门收集到的大数据,推断出一些目标可能是"敌人"的分数(1-100分),根据分数是否达标,判断该目标是否应该被"清除"。

随着冲突加剧,以色列"降低"了分数线,放宽了"波及伤害范围"。一个巴勒斯坦人,可能因为是由哈马斯发放薪水的基层环卫人员,每天按时上班与其他猎杀目标定期擦肩而过,与被标记为"猎杀目标"的人坐过同一辆公交车,长得像某个哈马斯高级领导人,或者与猎杀目标在同一个的聊天群内,获得足够分数,被标记为新的猎杀目标。

报道表示,以色列军方为成功"清除"一个猎杀目标,可以接受"顺便"杀死的15-20名(有报道为100名)巴勒斯坦平民;如果猎杀目标是重点目标,可接受的巴勒斯坦平民伤亡数字将上升到300名。

以色列国防军对此当然予以否认,"以色列国防军不使用AI系统试图预判一个人是否是恐怖分子。信息系统只是分析人员在识别目标的过程中的工具。"

但根据《卫报》的报道,消息人士表示,以色列国防军经营"大规模暗杀工厂"的"重点是数量而不是质量"--宁杀错不放过。每次轰炸清除目标前,以军指挥官平均只有20秒来对目标进行"核查",在不知道"目标为什么被定为死罪"的情况下,能提出的异议只有"性别""年龄"(反对妇孺目标),这在无视周边"平民死伤"的情况下毫无意义,实际上人类指挥官沦为了AI系统的"橡皮图章"。

当薰衣草AI系统在365平方公里的加沙标出来约3.7万个目标时(每平方公里超过100个打击目标),"AI系统识别目标,以便进行精确打击,避免平民伤亡"的神话就已经破灭了。因为从轰炸效果来说,以军"几乎没有放过"每一栋建筑。(据联合国估计,加沙北部84%的房屋已经完全被毁或严重受损。)况且薰衣草AI系统还在不知疲惫地努力工作,每天"新发现超过100个目标"。

据北京日报5月5日报道,自去年10月7日新一轮巴以冲突爆发以来,以军在加沙地带的军事行动已致34683人死亡、78018人受伤。

也许薰衣草AI系统的"死亡分数线"已经低到了"只要在加沙长得像人"就会被猎杀的地步。

更恐怖的是"爸爸去哪儿?"

相关报道还揭露了以色列国防军使用的其他"AI系统",包括福音系统和"爸爸去哪儿"系统。

福音系统(希伯来语为Habsora系统),是为薰衣草AI系统快速提供目标建议的前置系统。通常某以色列情报部门一年能够确定50个可行的打击目标,福音系统通过数据检索和分析,一天就能发送给薰衣草AI系统几百个潜在目标。

"爸爸去哪儿"系统,是"安排轰炸时间"的智能系统,负责预定飞机"清除"薰衣草AI系统发来的目标。

"爸爸去哪儿"系统更恐怖,因为从名称就能推断,该系统试图实时监控目标,以及目标家人的一举一动,比如从孩子问"爸爸去哪儿了"得到的答案,推断目标位置,以便准确轰炸击杀。

根据《卫报》的专家推测,以色列主要通过无人机上的摄像头、截获的通信、街头的监控设备,以及公开的社交媒体上收集数据。

这显然是"西方新闻学的花招"。无人机没有"透视眼",也不可能"听清"地面上的对话,加沙的监控数量极其有限,就算全被以色列控制,也不可能提供足够确定约3.7万个目标轰炸位置的数据。

根据公开信源,以色列"爸爸去哪儿"系统以及其他AI系统所需的数据可能来自三方面:

一、美国、五眼联盟的情报支持:

央视报道,《悉尼先驱晨报》怀疑美国或澳大利亚提供了大量信息给以色列,补全了以色列缺失的部分,提高了这些AI系统的能力。以色列能够出售AI系统(给这些国家),所以"这些政府对以色列在加沙的所作所为不但不质疑,反而带着赞许。"

二、通过电信设备的漏洞、后门或病毒,掌握窃听和追踪能力:

黎巴嫩真主党领导人纳斯鲁拉近日公开警告,以色列情报部门已经入侵了中东地区阿拉伯各国电信公司的数据库,窃取了电话号码、用户身份信息和IP地址,能够远程控制特定目标的手机和电脑,窃取用户的电子邮件、短信、照片、账户和密码,实时监控位置,或激活麦克风和摄像头,记录对话、面部数据和周边环境。以色列情报部门还入侵了闭路电视和摄像头,以便进行轰炸。

以色列情报部门对中东各国电信系统的侵入,是怎么做到的?

难怪2024年3月,华为与沙特阿拉伯的电信领军者Zain KSA,"突然"签署了关于5.5G技术的战略合作谅解备忘录,依托华为的无线网、核心网及传送网技术,为沙特提供全面的智能化解决方案。

三、科技公司支持,监控巴勒斯坦隐私:

美国《中东箴言》半月刊报道,以色列的AI系统得到了Meta旗下WhatsApp等应用的全力支持,所以才能拿到"聊天、群组信息"和社交媒体的隐私,投喂给"薰衣草"打分,给"爸爸去哪儿"提供实时信息。

Meta发言人表示反对,"WhatsApp没有后门,Meta不会给任何政府提供大量信息。"棱镜门当事人还在呢,这是此地无银三百两吗?

4月16日,部分谷歌员工在办公大楼前举行集会,抗议谷歌的人工智能项目为以色列国防部提供服务,并呼吁停火。4月18日,谷歌解雇了28名抗议者。

某种意义上来说,本次巴以冲突,已经变成了测试AI系统武器化的试验场,也是以美国为首的部分国家应用"信息霸权"的实战训练。

人工智能会犯战争罪吗?

人工智能与军事技术结合,绝不只是为了"精确打击"敌人,从政治上来说,人工智能系统在"有效地化解、模糊战争责任"。

战争罪构成的要件之一,就是主观意志,如果在没有"自由意志"、不需要做出判断的情况下,某人间接执行命令,不参与直接执行,很可能不构成战争罪。

如果以色列国防军的人类指挥官被送上国际法庭,很有可能这样辩解--我只是执行"薰衣草"AI系统的判断、"爸爸去哪儿"AI系统的指令,按了一下"确认"按钮,不应该为巴勒斯坦平民的死伤负责。

今日关注
更多