题目网 > “机关枪”热点

课内阅读。
  那个最先听到夜莺叫的凝神地站着,好像钉在那里似的。他注意数着一声一声的鸟叫:“一,二,三,四……”一边数一边用手打着拍子。
  夜莺的叫声停止了。“32个鬼子……”那个人说。只有游击队员才知道这鸟叫的意思。接着传来两声杜鹃叫。“两挺机关枪。”他又补充说。
  “对付得了!”一个满脸胡子的汉子端着冲锋枪说。他理了理挂在腰间的子弹袋。
  应该对付得了!”听鸟叫的那个人回答,“我和斯切潘叔叔把他们放过去,等你们开了火,我们在后边加油。如果我们出了什么事,你们可不要忘了小夜莺……”
  过了几分钟,德国兵在松树林后边出现了。夜莺还是兴致勃勃地唱着,但是对藏在寂静森林里的人们来说,那歌声已经没有什么新鲜的意思了。
1.文中画线的句手是不是比喻句?请在正确答案的括号里打“√”。
A.是( )
B.不是( )
2.读一读,想一想。
(1)夜莺的叫声表示有___\_;杜鹃的叫声表示有______。
(2)“他注意数着一声一声的鸟叫:‘一,二,三,四……’”这里的省略号表示________。
(3)“32个鬼子……”这里的“鬼子”指________。
(4)“你们可不要忘了小夜莺……”这里的小夜莺指________。
3.为什么后来夜莺的歌声已经没有什么新鲜的意思了?
________________

在无人驾驶汽车身上,我们可一瞥人工智能的未来。想象一下,一个犯罪集团盗取一辆无人汽车,而后为其装上机关枪并重新编程,使其成为杀人武器,这便是人工智能武器。再想象一下,既然很多人都有能力购买搭载运动相机的四旋翼无人机,如果研发出一款能让无人机自主飞行的软件,犯罪集团自然也能使其武器化,在公共场所制造大屠杀。因此,人工智能武器成为迫在眉睫的威胁;它们很容易被转化成杀戮机器,危险性远超类型相同但由人类操控的武器。
物理学家霍金、科技业大佬马斯克以及其他很多人都在人类未来研究所的一份请愿书上签名,呼吁禁止人工智能武器。请愿书称人工智能武器的威胁迫在眉睫,需要釆取行动,避免在几年内酿成灾难,不过并未指出何种类型的智能武器已经出现在地平线上。
很多人担心电影《终结者》中的末日景象会成为现实。影片中,机器人拥有与人类相似的能力,企图征服人类,成为地球的统治者。英国物理学家马丁·里斯提出了灾难性假设——机器人失去控制或者网络拥有自我意识。哲学家休·普莱斯也表达了类似的担忧,认为人工智能一旦摆脱生物学束缚,人类便可能无法继续存在下去。这些假设确实值得研究,但远不如已经出现在地平线上的人工智能武器构成的威胁那么紧迫。很多人之所以在请愿书上签名,是因为与拥有自我意识的电脑不同,类似安装机关枪的无人汽车这样的人工智能武器是更现实的威胁:任何一个电脑黑客只需极低的成本,便能对其重新编程,将其变成高效的杀戮机器。
智能武器本身并不可怕,真正可怕的是那些用心险恶的人。假设一个独裁者决心清洗反对者,他有一个存储着相关人员地址和照片的数据库。如果是在过去,他需要一支军队来完成这项任务,还需要贿赂士兵或给他们洗脑,使其死心塌地地为自己效命。但是在未来,他只需购买几千架装有自动武器的无人机,让效命于他的几位软件工程师进行重新编程,而后派遣无人机到反对者的住处或工作场所附近巡逻,一旦发现目标便予以射杀。无人机犯错几率更小,不会被人贿赂或洗脑,最重要的是,它们效率远远超过士兵。有了人工智能武器,独裁者过去需要掌控整个军队才能做到的事情,现在只要财力雄厚便可办到。
试图研发这种武器的制造商和政府可能声称他们可以釆取完备的防范措施,确保智能武器不被重新编程或被黑客入侵。对于这种态度,我们应该投去怀疑的目光。从电子投票机到自动取款机,从蓝光光碟播放机到飞弛在高速路上的汽车,它们都曾编织安全神话,但都在黑客的攻击下一一破灭。历史的教训告诉我们,计算设备往往屈服于企图改变其用途的黑客,人工智能武器不可能成为例外。
未来是否会签订禁令,禁止使用某种人工智能武器?答案是肯定的。如果只需极低的成本便可轻易将某种人工智能机器改造成高效的大规模杀伤性武器,禁止使用该机器的国际公约便会浮出水面。这种机器与放射性金属铀没有本质差别,都可以用于正当用途,但我们必须谨慎对待,严加管控,防止其被改造成毁灭性武器。我们之所以要禁止人工智能武器,并不是因为这种武器本身,而是因为心怀叵测的人很容易将其变成嗜血的恶魔。只需要一段简单的代码,很多智能武器便可转化成破坏性不亚于生化武器的杀戮机器。
界定人工智能武器需要解答很多问题。如果汽车可以被作为武器使用,是否应该禁止无人汽车?“智能”的确定定义是什么?“武器”的确定定义又是什么?所有这些都是非常重要的问题,也很难找到答案。不过,在我们同意签署一项协定,控制人工智能武器之前,这些问题无需解答。当然,任何一项国际禁令都无法完全遏制人工智能武器的扩散,但我们没有任何理由放任不管,不签署任何禁令。既然我们有充分的理由禁止生化武器和空尖弹,我们同样有充分的理由对人工智能武器说“不”。
第五段中,作者认为应该对哪种态度“投去怀疑的目光”?
A.对技术管控过分自信
B.对未来做灾难性假设
C.禁止人工智能研发
D.放任邪恶人性肆虐
在无人驾驶汽车身上,我们可一瞥人工智能的未来。想象一下,一个犯罪集团盗取一辆无人汽车,而后为其装上机关枪并重新编程,使其成为杀人武器,这便是人工智能武器。再想象一下,既然很多人都有能力购买搭载运动相机的四旋翼无人机,如果研发出一款能让无人机自主飞行的软件,犯罪集团自然也能使其武器化,在公共场所制造大屠杀。因此,人工智能武器成为迫在眉睫的威胁;它们很容易被转化成杀戮机器,危险性远超类型相同但由人类操控的武器。
物理学家霍金、科技业大佬马斯克以及其他很多人都在人类未来研究所的一份请愿书上签名,呼吁禁止人工智能武器。请愿书称人工智能武器的威胁迫在眉睫,需要釆取行动,避免在几年内酿成灾难,不过并未指出何种类型的智能武器已经出现在地平线上。
很多人担心电影《终结者》中的末日景象会成为现实。影片中,机器人拥有与人类相似的能力,企图征服人类,成为地球的统治者。英国物理学家马丁·里斯提出了灾难性假设——机器人失去控制或者网络拥有自我意识。哲学家休·普莱斯也表达了类似的担忧,认为人工智能一旦摆脱生物学束缚,人类便可能无法继续存在下去。这些假设确实值得研究,但远不如已经出现在地平线上的人工智能武器构成的威胁那么紧迫。很多人之所以在请愿书上签名,是因为与拥有自我意识的电脑不同,类似安装机关枪的无人汽车这样的人工智能武器是更现实的威胁:任何一个电脑黑客只需极低的成本,便能对其重新编程,将其变成高效的杀戮机器。
智能武器本身并不可怕,真正可怕的是那些用心险恶的人。假设一个独裁者决心清洗反对者,他有一个存储着相关人员地址和照片的数据库。如果是在过去,他需要一支军队来完成这项任务,还需要贿赂士兵或给他们洗脑,使其死心塌地地为自己效命。但是在未来,他只需购买几千架装有自动武器的无人机,让效命于他的几位软件工程师进行重新编程,而后派遣无人机到反对者的住处或工作场所附近巡逻,一旦发现目标便予以射杀。无人机犯错几率更小,不会被人贿赂或洗脑,最重要的是,它们效率远远超过士兵。有了人工智能武器,独裁者过去需要掌控整个军队才能做到的事情,现在只要财力雄厚便可办到。
试图研发这种武器的制造商和政府可能声称他们可以釆取完备的防范措施,确保智能武器不被重新编程或被黑客入侵。对于这种态度,我们应该投去怀疑的目光。从电子投票机到自动取款机,从蓝光光碟播放机到飞弛在高速路上的汽车,它们都曾编织安全神话,但都在黑客的攻击下一一破灭。历史的教训告诉我们,计算设备往往屈服于企图改变其用途的黑客,人工智能武器不可能成为例外。
未来是否会签订禁令,禁止使用某种人工智能武器?答案是肯定的。如果只需极低的成本便可轻易将某种人工智能机器改造成高效的大规模杀伤性武器,禁止使用该机器的国际公约便会浮出水面。这种机器与放射性金属铀没有本质差别,都可以用于正当用途,但我们必须谨慎对待,严加管控,防止其被改造成毁灭性武器。我们之所以要禁止人工智能武器,并不是因为这种武器本身,而是因为心怀叵测的人很容易将其变成嗜血的恶魔。只需要一段简单的代码,很多智能武器便可转化成破坏性不亚于生化武器的杀戮机器。
界定人工智能武器需要解答很多问题。如果汽车可以被作为武器使用,是否应该禁止无人汽车?“智能”的确定定义是什么?“武器”的确定定义又是什么?所有这些都是非常重要的问题,也很难找到答案。不过,在我们同意签署一项协定,控制人工智能武器之前,这些问题无需解答。当然,任何一项国际禁令都无法完全遏制人工智能武器的扩散,但我们没有任何理由放任不管,不签署任何禁令。既然我们有充分的理由禁止生化武器和空尖弹,我们同样有充分的理由对人工智能武器说“不”。
最适合做这段文字标题的是:
A.未来世界的统治者
B.对人工智能武器说“不”
C.即将成为现实的终结者
D.地平线上的人工智能武器
在无人驾驶汽车身上,我们可一瞥人工智能的未来。想象一下,一个犯罪集团盗取一辆无人汽车,而后为其装上机关枪并重新编程,使其成为杀人武器,这便是人工智能武器。再想象一下,既然很多人都有能力购买搭载运动相机的四旋翼无人机,如果研发出一款能让无人机自主飞行的软件,犯罪集团自然也能使其武器化,在公共场所制造大屠杀。因此,人工智能武器成为迫在眉睫的威胁;它们很容易被转化成杀戮机器,危险性远超类型相同但由人类操控的武器。
物理学家霍金、科技业大佬马斯克以及其他很多人都在人类未来研究所的一份请愿书上签名,呼吁禁止人工智能武器。请愿书称人工智能武器的威胁迫在眉睫,需要釆取行动,避免在几年内酿成灾难,不过并未指出何种类型的智能武器已经出现在地平线上。
很多人担心电影《终结者》中的末日景象会成为现实。影片中,机器人拥有与人类相似的能力,企图征服人类,成为地球的统治者。英国物理学家马丁·里斯提出了灾难性假设——机器人失去控制或者网络拥有自我意识。哲学家休·普莱斯也表达了类似的担忧,认为人工智能一旦摆脱生物学束缚,人类便可能无法继续存在下去。这些假设确实值得研究,但远不如已经出现在地平线上的人工智能武器构成的威胁那么紧迫。很多人之所以在请愿书上签名,是因为与拥有自我意识的电脑不同,类似安装机关枪的无人汽车这样的人工智能武器是更现实的威胁:任何一个电脑黑客只需极低的成本,便能对其重新编程,将其变成高效的杀戮机器。
智能武器本身并不可怕,真正可怕的是那些用心险恶的人。假设一个独裁者决心清洗反对者,他有一个存储着相关人员地址和照片的数据库。如果是在过去,他需要一支军队来完成这项任务,还需要贿赂士兵或给他们洗脑,使其死心塌地地为自己效命。但是在未来,他只需购买几千架装有自动武器的无人机,让效命于他的几位软件工程师进行重新编程,而后派遣无人机到反对者的住处或工作场所附近巡逻,一旦发现目标便予以射杀。无人机犯错几率更小,不会被人贿赂或洗脑,最重要的是,它们效率远远超过士兵。有了人工智能武器,独裁者过去需要掌控整个军队才能做到的事情,现在只要财力雄厚便可办到。
试图研发这种武器的制造商和政府可能声称他们可以釆取完备的防范措施,确保智能武器不被重新编程或被黑客入侵。对于这种态度,我们应该投去怀疑的目光。从电子投票机到自动取款机,从蓝光光碟播放机到飞弛在高速路上的汽车,它们都曾编织安全神话,但都在黑客的攻击下一一破灭。历史的教训告诉我们,计算设备往往屈服于企图改变其用途的黑客,人工智能武器不可能成为例外。
未来是否会签订禁令,禁止使用某种人工智能武器?答案是肯定的。如果只需极低的成本便可轻易将某种人工智能机器改造成高效的大规模杀伤性武器,禁止使用该机器的国际公约便会浮出水面。这种机器与放射性金属铀没有本质差别,都可以用于正当用途,但我们必须谨慎对待,严加管控,防止其被改造成毁灭性武器。我们之所以要禁止人工智能武器,并不是因为这种武器本身,而是因为心怀叵测的人很容易将其变成嗜血的恶魔。只需要一段简单的代码,很多智能武器便可转化成破坏性不亚于生化武器的杀戮机器。
界定人工智能武器需要解答很多问题。如果汽车可以被作为武器使用,是否应该禁止无人汽车?“智能”的确定定义是什么?“武器”的确定定义又是什么?所有这些都是非常重要的问题,也很难找到答案。不过,在我们同意签署一项协定,控制人工智能武器之前,这些问题无需解答。当然,任何一项国际禁令都无法完全遏制人工智能武器的扩散,但我们没有任何理由放任不管,不签署任何禁令。既然我们有充分的理由禁止生化武器和空尖弹,我们同样有充分的理由对人工智能武器说“不”。
第六段中“这种机器与放射性金属铀没有本质差别”的根本原因是:
A.容易被居心叵测之人操控
B.只需投入极低的研发成本
C.使用方便,技术门槛已被突破
D.既能造福人类,又具有毁灭性
在无人驾驶汽车身上,我们可一瞥人工智能的未来。想象一下,一个犯罪集团盗取一辆无人汽车,而后为其装上机关枪并重新编程,使其成为杀人武器,这便是人工智能武器。再想象一下,既然很多人都有能力购买搭载运动相机的四旋翼无人机,如果研发出一款能让无人机自主飞行的软件,犯罪集团自然也能使其武器化,在公共场所制造大屠杀。因此,人工智能武器成为迫在眉睫的威胁;它们很容易被转化成杀戮机器,危险性远超类型相同但由人类操控的武器。
物理学家霍金、科技业大佬马斯克以及其他很多人都在人类未来研究所的一份请愿书上签名,呼吁禁止人工智能武器。请愿书称人工智能武器的威胁迫在眉睫,需要釆取行动,避免在几年内酿成灾难,不过并未指出何种类型的智能武器已经出现在地平线上。
很多人担心电影《终结者》中的末日景象会成为现实。影片中,机器人拥有与人类相似的能力,企图征服人类,成为地球的统治者。英国物理学家马丁·里斯提出了灾难性假设——机器人失去控制或者网络拥有自我意识。哲学家休·普莱斯也表达了类似的担忧,认为人工智能一旦摆脱生物学束缚,人类便可能无法继续存在下去。这些假设确实值得研究,但远不如已经出现在地平线上的人工智能武器构成的威胁那么紧迫。很多人之所以在请愿书上签名,是因为与拥有自我意识的电脑不同,类似安装机关枪的无人汽车这样的人工智能武器是更现实的威胁:任何一个电脑黑客只需极低的成本,便能对其重新编程,将其变成高效的杀戮机器。
智能武器本身并不可怕,真正可怕的是那些用心险恶的人。假设一个独裁者决心清洗反对者,他有一个存储着相关人员地址和照片的数据库。如果是在过去,他需要一支军队来完成这项任务,还需要贿赂士兵或给他们洗脑,使其死心塌地地为自己效命。但是在未来,他只需购买几千架装有自动武器的无人机,让效命于他的几位软件工程师进行重新编程,而后派遣无人机到反对者的住处或工作场所附近巡逻,一旦发现目标便予以射杀。无人机犯错几率更小,不会被人贿赂或洗脑,最重要的是,它们效率远远超过士兵。有了人工智能武器,独裁者过去需要掌控整个军队才能做到的事情,现在只要财力雄厚便可办到。
试图研发这种武器的制造商和政府可能声称他们可以釆取完备的防范措施,确保智能武器不被重新编程或被黑客入侵。对于这种态度,我们应该投去怀疑的目光。从电子投票机到自动取款机,从蓝光光碟播放机到飞弛在高速路上的汽车,它们都曾编织安全神话,但都在黑客的攻击下一一破灭。历史的教训告诉我们,计算设备往往屈服于企图改变其用途的黑客,人工智能武器不可能成为例外。
未来是否会签订禁令,禁止使用某种人工智能武器?答案是肯定的。如果只需极低的成本便可轻易将某种人工智能机器改造成高效的大规模杀伤性武器,禁止使用该机器的国际公约便会浮出水面。这种机器与放射性金属铀没有本质差别,都可以用于正当用途,但我们必须谨慎对待,严加管控,防止其被改造成毁灭性武器。我们之所以要禁止人工智能武器,并不是因为这种武器本身,而是因为心怀叵测的人很容易将其变成嗜血的恶魔。只需要一段简单的代码,很多智能武器便可转化成破坏性不亚于生化武器的杀戮机器。
界定人工智能武器需要解答很多问题。如果汽车可以被作为武器使用,是否应该禁止无人汽车?“智能”的确定定义是什么?“武器”的确定定义又是什么?所有这些都是非常重要的问题,也很难找到答案。不过,在我们同意签署一项协定,控制人工智能武器之前,这些问题无需解答。当然,任何一项国际禁令都无法完全遏制人工智能武器的扩散,但我们没有任何理由放任不管,不签署任何禁令。既然我们有充分的理由禁止生化武器和空尖弹,我们同样有充分的理由对人工智能武器说“不”。
下列说法与原文相符的是:
A.签署禁止协议可以阻止人工智能武器的扩散
B.在阻止人工智能滥用中科学家应负主要责任
C.广泛使用人工智能武器有可能造成社会危机
D.未来独裁者不再需要军队来维持自己的权力