关注

可能是中外思维差异,看到一个博主用人类的“电车困境”去测试AI,每个IA都有属于自己的道德判断,国内的IA(豆包、deepseek)都倾向于拉杆:“将伤亡减少到最小”,国外的IA(chatGDP)更倾向于不拉杆:“我可以承受过失杀人的责任,但绝不故意杀人,哪怕是被迫的。”我自己的思路更接近chatGDP,就是我没有权力去权衡生命的轻重,如果真的要面对如此决绝的道德困境,那就一切交给老天吧,我一区区人类不配做这种选择。

@Rwby 想起我本科课堂做出了同样的选择给了同样的解释“他们陷入这种境地很不幸,但我不能做这种决策”,被老师说不负责任(,

登录以加入对话
雾海

雾海是一个开放且不限制讨论主题的非营利性中文社区,名字来源于德国浪漫主义画家 Friedrich 的画作《雾海上的旅人》。生活总是在雾海中吞吐不定,不管怎么艰辛,他还是站在了这里!希望大家在这里玩的开心~