歡迎來到合肥浪訊網(wǎng)絡(luò)科技有限公司官網(wǎng)
  咨詢服務(wù)熱線:400-099-8848

美國《外交政策》:人工智能將怎樣改動戰(zhàn)役?

發(fā)布時間:2023-05-04 文章來源:本站  瀏覽次數(shù):2111

美國《外交政策》4月11日文章,原題:人工智能將怎樣改動戰(zhàn)役談到先進的人工智能,大部分爭辯都集中在白領(lǐng)工人是否面對要挾。雖然人工智能很或許會突然間能夠代替律師、會計師、教師、程序員以及記者所做的大部分作業(yè),但這些或許不是發(fā)生大變革的領(lǐng)域。新的人工智能或許會徹底改動戰(zhàn)役,它的效果不一定令人欣慰,乃至或許是致命的。

材料圖

優(yōu)勢

一方面,人工智能可以降低戰(zhàn)役的殺傷力,并或許加強威懾力。經(jīng)過大幅增加人工智能無人機在空軍、海軍和陸軍中的運用,可以挽救更多人的生命。五角大樓已經(jīng)在實驗可以駕馭戰(zhàn)斗機的人工智能機器人,俄羅斯也一直在測驗主動坦克。雖然仍處于初期階段,但推進人工智能開展已經(jīng)是美國空軍的一個隱秘計劃。核要挾倡議組織高級顧問道格拉斯·肖說,“很簡單幻想,未來武裝部隊中無人機的數(shù)量將遠遠超越駕馭員!

另一方面,人工智能驅(qū)動的軟件或許會使大國的決議計劃時刻縮短到幾分鐘,而不是幾小時或幾天。人們或許會過度依靠人工智能進行戰(zhàn)略和戰(zhàn)術(shù)評價,乃至在核戰(zhàn)役中也是如此。斯坦福大學(xué)的赫伯特·林表明,危險在于,決議計劃者或許會逐步依靠新式人工智能作為兵器指揮和操控的一部分,因為它的運轉(zhuǎn)速度遠遠超越人類。

憂慮

赫伯特·林說,“真實的問題是:人們過度信任人工智能或許會導(dǎo)致更瘋狂的作業(yè)發(fā)生!泵绹哲娡艘蹖④姴闋査埂ね郀柕乱舱f,“大的憂慮是讓戰(zhàn)役機器或?qū)嶓w具有太多的自由!

美國軍備操控協(xié)會2月初宣布的一份報告顯現(xiàn),人工智能和高超音速導(dǎo)彈等其他新技能或許會“模糊常規(guī)進犯和核進犯之間的邊界”。報告顯現(xiàn),“開發(fā)用于軍事的新興技能所需的時刻,比評價這些技能構(gòu)成的危險所需的時刻要更短。因而,怠慢這些技能兵器化的步伐,細心權(quán)衡這樣做的危險,并對它們的軍事用途采取有用約束至關(guān)重要”。

另一個憂慮是先進的人工智能技能或許會讓恐怖分子等獲得制造臟彈或其他致命兵器的常識。

與暗斗時期相比,現(xiàn)在同享人工智能的行為體要多得多,這意味著核兵器地址更簡單被勘探,降低其保密性。道格拉斯·肖說:“人工智能將改動躲藏和尋找事物的態(tài)勢!彼赋,現(xiàn)在美國的大部分?jǐn)?shù)據(jù)由私人公司持有,這些公司很簡單受到人工智能驅(qū)動的間諜活動和兵器系統(tǒng)的窺探。

未來

清楚明了的事實是人們幾乎無法阻止一場新的人工智能軍備競賽的進行,各大科技公司爭相推出自己的人工智能系統(tǒng)。跟著人工智能的開展,許多人或許會感到驚懼。有人不由表明置疑,以為人工智能的開展將對人類文明發(fā)生深遠影響。

咱們應(yīng)該讓機器用宣傳和謊話淹沒咱們的信息渠道嗎?咱們是否應(yīng)該把所有的作業(yè)都主動化,包含那些現(xiàn)在令人滿意的作業(yè)?咱們是否應(yīng)該開展非人類思想,讓它們終究在數(shù)量上取勝、智力上超越咱們?咱們是否應(yīng)該冒著失去人類文明的危險?然而,雖然提出了這些疑問,未來的戰(zhàn)役仍然很或許在“一方的無人機被另一方的無人機炸毀”時決定勝負(fù)。

上一條:AI作圖工具Midjou...

下一條:生成式人工智能監(jiān)管辦法更...