尼克·波斯顿说过:“我们对待风险,绝对不是"屡败屡战"的方式。我们没有机会从错误中汲取教训……我们应该采取预防的方式。这需要我们预测到新的危险,并有决心采取行动,将危险阻止。 ” 焦点 智能机器存在反人类风险
“我们必须严肃对待可能演变成"潘多拉之盒"的时刻,人工智能一旦失控,后果可能是灾难性的。 ”剑桥哲学家休·普莱斯说出了对人工智能的担忧。在其看来,当计算机可以自己写程序时,可能就会达到这个临界点。
目前,人工智能界总是传来令人振奋的消息,但对其的担心也无时不在,失控的机器并不总是存在于科幻界。
11月,美国一家人权机构发表了名为《逝去的人性:杀人机器人案例》的报告,引发诸多担心。报告称,全自动武器发展会给人类文明带来危险。全自动武器不具备人性,无论是致命的还是非致命的属性,都可能导致对平民的无情杀戮。
美国国会今年公布的一份报告显示,短短七年内,美国增加了7494架无人机。该报告未提及去年美国内华达空军基地发生的无人机机器中毒事件。当时,计算机病毒在远程控制无人机的计算机中扩散,不过军方称病毒被控制,未发生事故。此外,该报告也未提及涉及远程控制方面的一些伦理问题。 生物技术可能会“助纣为虐”
针对生物技术的威胁,剑桥哲学家休·普莱斯和天文学家马丁·里斯都认为,如今,制造病毒武器或其他生物恐怖事件的方式已被大大简化。
去年,两组独立的科学家在实验室里生产出了H5N1流感病毒,以对其进行研究,最终使人类疫情得以控制。不过,当他们计划将在全球最权威的两份期刊《自然》和《科学》发表此项论文时,却被美国政府制止,要求不能公开研制过程的关键步骤,以防被生物恐怖主义利用。