即使這個標題對於與技術不太相關的人來說聽起來更像是科幻小說,但如果不加以控制,人工智能將導致人類滅絕。
2023 年 XNUMX 月之後,Elon Musk 等科技專家談到 人工智能可能產生的普遍危險 在社會層面,輪到開發人工智能的大公司的首席執行官們通過一封公開信敲響警鐘了。
在非營利組織發起的公開信的350個簽名者中“Center For AI Safety“(CAIS),包括:Sam Altman,公司首席執行官 OpenAI, 公司負責人 AI DeepMind, Antrophic 還有微軟、谷歌等公司的高管,他們也開發了廣泛的人工智能語言。
他們加入了該領域的一群研究人員和教授來表達自己 人工智能可能導致人類滅絕的擔憂 如果政治決策者不會認真對待這個問題。
公開信說,不受監管的人工智能在全球範圍內的影響可能會造成與核戰爭或完全失控的大流行一樣大的破壞。
人工智能會導致人類滅絕嗎?
決策者很可能會及時醒來並尋找解決方案來規範技術邁出的這一巨大步驟。 當然,在做出決定之前,他們必須意識到人工智能帶來的好處有哪些風險。
人工智能不僅僅意味著 ChatGPT, Microsoft 365 Copilot 或 Google Bard. Mode生成式人工智能文件用於 藥品、研究、機器人和自動化、教育、金融、商業以及許多其他真正有幫助的領域。
AI 它還可以用於破壞性目的,與此相關的是人工智能會導致人類滅絕的恐懼。 以在群眾中製造緊張為目的操縱社會,直至開發能夠超越人類智力並自主決策的智能武器。 它是一種能夠自我學習、評估情況和行動的技術。

最大的問題是 mode廣義語言 AI (LLM) 可供任何人使用。
核裂變是人類邁出的一大步,既帶來了好處,也帶來了重大危險。 核裂變產生的能量是一種巨大的資源和真正的好處,而核武器對人類來說可能是災難性的。 另一方面,核燃料並不是每個人都能得到的 mode人工智能樂樂。 鈾 (U-235) 或 plutonium-239 不會像找到可以運行 Python 的計算機那樣容易被任何人找到。
然而,有一件事是肯定的。 人工智能將導致人類滅絕,只有在人類允許的情況下。 如果人類無法控制自然的力量,人工智能仍然可以控制(我希望)。