云霞育儿网

俄媒 :中国专家认为阿西莫夫的机器人三定律已经不再适用! 战斗机器人显然违反了第

俄媒 :中国专家认为阿西莫夫的机器人三定律已经不再适用! 战斗机器人显然违反了第一定律,因此需要新的规则。 7月11日塔斯社刊文。 使用世界上已经在开发的人形战斗机器人可能会引起道德问题,艾萨克·阿西莫夫提出的机器人三定律已经不再适用于他们。 这是中国专家在中国人民解放军报纸《周报》上发表的看法。 袁毅、马艺、岳世光等专家表示: “军用人形机器人是迄今为止最具人形的武器,如果大规模和标准地使用,将不可避免地导致法律指控和道德谴责。” 这篇文章引用了美国科幻作家艾萨克·阿西莫夫(Isaac Asimov)提出的机器人三定律。 这意味着机器人不能伤害人类,必须服从人类的所有命令,并照顾自己的安全,除非这违反了第一条规则。 作者强调,战斗机器人显然违反了第一定律,因此需要新的规则。 “在这方面,军用类人机器人至少要做到三件事:服从人,不修改依赖人的程序,不在用户不受限制的情况下实施暴力,尊重人,严格区分人,不任意摧毁人。”中国专家说。 在分析人形机器人的作战应用能力时,中国专家提出了五个主要方案。 第一,在地面战斗中替换或帮助人们。 “具有接近人类的综合作战能力的类人战斗机器人,可以取代步兵在城市和野外与敌人作战,这可以大大减少人员伤亡。” 第二种情况是,用坦克、步兵战车和战斗机等中小型装备取代人。使用人形机器人作为“设备控制设备”可以减少人员伤亡。 第三,类人机器人可以参与轰炸机、战略和战术导弹、舰艇和其他需要多人维护的设备的使用。 第四,这类部队可以代替军人执行复杂的后勤和后勤支援任务,例如担任医务人员、技术维修人员和其他专业人员,“逐步减少军队中劳动密集型职位”。 最后,在高风险地区,如核、生物和化学污染区,在极端高温或低温条件下,以及在深海、太空和地球内部,战斗类人机器人可以取代人类。

评论列表

阿道夫强力去油
阿道夫强力去油 24
2025-07-11 22:16
全世界都应该庆幸,科技掌握在真正的文明手中,而不是满世界开战的战争贩子
俊勇
俊勇 19
2025-07-11 21:34
机器人还是机器,真正要防备和信任的是AI

时光飞逝 回复 07-12 11:36
机器人早晚要和AI结合。现在的机器人发展大约在具有本能的躯体阶段。AI已经有人类3,4岁智力。

用户10xxx42
用户10xxx42 13
2025-07-11 23:16
当初中国在联合国大会上反对机器人用于战争的,关键欧美不听啊,那就……献丑了——

tb315145358 回复 07-12 13:03
战场上,人杀人是合理合规的,人形机器人就不行?理解起来真是不能理解。

摇摇乐
摇摇乐 12
2025-07-11 18:42
机器人三定律只是寄希望于制造者的,实际情况不可能!要我说,应该以“缺陷”原则来制定法律,即不能设计和制造“完美”的机器人!必须带有“缺陷”,比如智力高的不能拥有躯体,有强力躯体的不能有高级智慧。

岳云 回复 07-12 12:42
有个技术叫联网,有个东西叫云端,你想分开就怕有一天它们不想分开

用户80xxx60
用户80xxx60 11
2025-07-11 18:32
都是造出来的工具,为什么美国造出来的可以满世界轰炸

荷花爸 回复 07-12 12:41
因为美国背后有中国的支持

azhongii
azhongii 8
2025-07-12 05:56
一个科幻小说家随口胡诌的玩意 你还当真理了?[哭笑不得][哭笑不得]

用户13xxx25 回复 07-12 11:48
就是,一个专家,确拾人牙慧

六翼 回复 07-12 13:32
阿西莫夫的机器人三大定律有其伦理学的考虑。简单逻辑分析就会发现,如果交战双方都没有初始的三定律约束智能发展,卷到最后就是机器人智能到觉醒,摆脱控制反过来屠杀人类。

用户15xxx65
用户15xxx65 4
2025-07-11 22:21
虾扯蛋,程序都是人编的,不是想怎么设定,就怎么设定![抠鼻]

夏至 回复 07-12 09:19
外行,程序代码本身就无法用绝对指令,总有一些模糊逻辑,先天性问题。

王志强
王志强 4
2025-07-12 12:53
说实话,军用机器人是真打开了潘多拉魔盒,没有一个人能预言出人工智能会发展成什么样,人类可能真的给自己埋下了一颗未来有可能爆炸的种子
用户17xxx75
用户17xxx75 4
2025-07-12 11:10
遥控机器人不是自主意识的机器人,本质还是人为控制
流浪的风
流浪的风 4
2025-07-12 00:23
战争就是用一切手段获取胜利,所以机器人三原则在战争面前啥也不是
苦咖啡
苦咖啡 3
2025-07-12 11:09
说在多都是屁话,最终怎么用都是人决定的,
对方正在怼入
对方正在怼入 3
2025-07-11 17:18
呵,人都可以伤害人类,机器人为什么不可以伤害人类?
BOBO
BOBO 3
2025-07-12 10:58
机器人三定律只是个小说家的臆想,从来不是真理
你跌
你跌 3
2025-07-12 12:39
联合国大会,中国:禁止研发战斗机器人。美英法:反对!俄罗斯:弃权。中国:这你们说的,那我可就量产了啊。
^阳光心情+
^阳光心情+ 3
2025-07-12 11:44
也就中国人把这所谓的三定律当真了,美国人绝对没把这当回事,有时候道德标准太高真不好就,但说不定中国又是以退为进呢?!
用户11xxx61
用户11xxx61 3
2025-07-11 22:49
现在算什么机器人,高级遥控玩具而已。考虑这个差得远
用户10xxx22
用户10xxx22 2
2025-07-11 19:49
软件层面必须限定使用严格的逻辑计算程序,禁止使用模糊计算程序。
jiang_783
jiang_783 2
2025-07-12 12:17
当你足够强时,规则由你制定。
奋斗
奋斗 2
2025-07-11 17:23
人类终结者!
嘿好运来
嘿好运来 2
2025-07-12 12:08
规则就是会被突破的。从发明机器人开始,人类就注定会被取代。
ZJW
ZJW 2
2025-07-12 09:16
明明是你们反对中国关于禁止研究ai自主杀人机器提议的。
key
key 2
2025-07-12 12:08
这里的机器人应该指的是具有自主思维能力的人工智能机器人,估计当时这位科幻作家认知有限。
专业怼口嗨
专业怼口嗨 2
2025-07-12 11:50
现在都是人为控制算什么机器人啊,还没有哪个国家搞自主AI武器吧,就算有也不可能把攻击自主权交给AI吧
我是你得不到的美男子
我是你得不到的美男子 2
2025-07-12 12:01
这个好办啊,战争时直接剥夺掉敌人的人籍就可以了[doge][doge]
熊垂勇
熊垂勇 2
2025-07-12 12:38
妇人之仁
燕赤龙
燕赤龙 2
2025-07-11 20:01
遥控的不算吧?
易水
易水 2
2025-07-11 21:52
高效的AI分柝、处理系统已违背了一切!
用户17xxx75
用户17xxx75 2
2025-07-12 11:04
毛子谈道德,真让人浑身不适
用户10xxx86
用户10xxx86 2
2025-07-12 11:44
.AI早晚会代替人类!这是个阳谋!无解!
ナ エ
ナ エ 1
2025-07-12 11:03
真是可笑,一个科幻作家说的话怎么可能成为定律,理想化的设定都没经历实践考验。
阿迪达斯
阿迪达斯 1
2025-07-11 23:01
对!自己的机器人不能攻击自己!但敌人就要消灭
gaofen6284
gaofen6284 1
2025-07-12 10:31
兵器追求的一直都是更高的杀人效率!
尾巴
尾巴 1
2025-07-12 13:16
当年在看到阿西莫夫的三原则时就觉得是狗屁,人不吃人的底线不是不好吃而是吃了会容易生病,机器人为什么不能伤害人类?也会生病吗?如果会生病那又是哪个机制起了作用?
taoniu0
taoniu0 1
2025-07-12 11:41
将敌人定义为非人类就完善解决了第一定律。
SUN
SUN 1
2025-07-12 11:41
终结者是终将到来的!
我本楚狂人
我本楚狂人 1
2025-07-12 13:16
不可拘泥于成法,打仗以战胜为第一法则,甚至不择手段
微尘
微尘 1
2025-07-12 11:13
科技的尽头是毁灭
一壶酒
一壶酒 1
2025-07-11 17:40
机器人始终就是一个工具而已,看使用他的人是什么人,之所以感觉机器人很高大,那是因为他聚集了大多数人的智慧而已,就像第一次照镜子,总感觉镜子里的人是真的,其实那就是你自己
买火柴的怪蜀黍
买火柴的怪蜀黍 1
2025-07-12 10:47
我们没用机器人,我们用的是机器狗机器狼
流氓的低音鼓
流氓的低音鼓
2025-07-12 13:32
中国已经提出过机器人不能军用,但被联合国否了[抠鼻]
用户16xxx08
用户16xxx08
2025-07-12 13:20
战争就是要征服对方,对方不从那就是杀死对方,还在意谁杀死它?温压弹,脏弹等都用上了,你跟我说人性?