【世界新視野】科學家集體叫停人工智能!停得下來嗎?我們到底在害怕什么?
霍金曾經預言,未來我們面臨的最大危險不是核戰爭,也不是隕石撞地球,而是病毒和人工智能!我們今天先不聊病毒,先說一說近期火出天際的人工智能。
當然,任何事物,都是慢慢地由量變到質變的,人工智能也經歷了幾個不同時期的發展。人工智能的發展史可以追溯到20世紀50年代。
1956年召開的達特茅斯會議,是人工智能的第一個會議,旨在將科學家和研究人員聚集在一起,探討如何創造機器智能,那時候的人工智能還僅僅是星星之火。從1950年代到1960年代,人工智能進入了邏輯推理階段,那時候的人工智能研究側重于基于符號邏輯的推理和證明。
(相關資料圖)
1960年代到1970年代,人工智能進入了專家系統階段,它是一種基于知識庫的人工智能,旨在模擬人類專家的知識和推理方法。1980年代到1990年代,人工智能進入了神經網絡階段,它是一種模擬人腦的計算模型,可以學習和處理大量數據。
2000年代以后,人工智能進入了深度學習階段。它可以像小孩子一樣來學習知識,可以處理更復雜的任務,并在圖像識別、語音識別和自然語言處理等領域取得了重大突破。
現在,到了火出天際的GPT-4.相對于GPT3.5,GPT-4的思考能力又不止上了一個臺階。它能夠對你的提問進行反問。有一個人問時間簡史的出版時間,發現給出的答案不對,這時機器人反問,你是不是把書名搞錯了?并且提出了正確的書名!這機器人已經和人的思維差不多了,你甚到不知道自己是在和人聊天還是在和機器人聊天。更要命的是,這個和你聊天的“人”比你陪明無數倍!
從50年代到現在也不過70多年,人工智能進化的速度太快了,再給個十年或者二十年,我們真的不知道人工智能會發展到什么地步。
以馬克斯為首的一眾科學家大佬們,已經聯名了1000多名人工智能方面的科學家,呼吁將人工智能的訓練時間暫停六個月!因為以他們前瞻的眼光來看,已經發現人工智能對人和人類社會潛在的風險!
那我們到底在害怕什么呢?害怕人工智能會搶走我們的工作?這也有一點,但絕對不是主要原因,每一次工業革命,都曾使無數人失業,但那點痛只是暫時的,過了不久,人們就會在新的環境下,找到新的工作。
那當心人工智能會襲擊人類?我想這也不是主要的原因。襲擊人類的動物多了去了,也沒有聽說要把那些動物消滅。
其實人們最當心的是人工智能會被恐怖分子撐握!人工智能就像是一個已經磨得十分鋒利的刀,其威力甚至超過核武器。如果它被撐握在正直的人的手中,那肯定是沒有問題的,如果被壞人掌握了呢?后果真的是不堪設想!?
我們真的能叫停人工智能的訓練嗎?雖然暫停人工智能的呼吁到現在為止已經有1126人簽名,但是OpenAI、微軟和谷歌暫未置評,說不定還有不少的公司正在暗地里使勁呢!即使這次叫停了,那6個月以后呢?人們對科學的追求是無止境的,所以人工智的開發也會像長江東流水一樣向滾滾向前!
再過幾年,到底會發展成什么樣子?我們試目以待!
?
關鍵詞:
2023-03-30 22:04:28
2023-03-30 20:56:02
2023-03-30 20:51:01
2023-03-30 20:49:04
2023-03-30 20:45:28
2023-03-30 20:41:13
2023-03-30 20:39:20
2023-03-30 20:29:10
2023-03-30 19:56:33
2023-03-30 19:40:48
2023-03-30 18:54:03
2023-03-30 18:53:03
2023-03-30 18:48:12
2023-03-30 18:36:47
2023-03-30 18:16:13
2023-03-30 17:48:31
2023-03-30 17:46:28
2023-03-30 17:45:57
2023-03-30 17:40:46
2023-03-30 17:35:21
2023-03-30 17:18:15
2023-03-30 16:57:04
2023-03-30 16:55:37
2023-03-30 16:53:54
2023-03-30 16:53:33
2023-03-30 16:51:16
2023-03-30 16:46:14
2023-03-30 16:44:59
2023-03-30 16:39:47
2023-03-30 16:19:02
2023-03-30 16:18:58
2023-03-30 16:18:33
2023-03-30 16:17:08
2023-03-30 16:16:31
2023-03-30 16:16:02
2023-03-30 16:16:01
2023-03-30 16:15:56
2023-03-30 16:14:35
2023-03-30 16:14:17
2023-03-30 16:14:04
2023-03-30 16:12:31
2023-03-30 16:12:14
2023-03-30 16:08:56
2023-03-30 16:07:24
2023-03-30 16:07:13
2023-03-30 16:06:46
2023-03-30 16:05:50
2023-03-30 16:05:43
2023-03-30 16:05:25
2023-03-30 16:04:20
2023-03-30 16:04:17
2023-03-30 16:02:56
2023-03-30 16:02:55
2023-03-30 16:01:00
2023-03-30 16:00:31
2023-03-30 16:00:00
2023-03-30 15:59:32
2023-03-30 15:58:46
2023-03-30 15:58:08
2023-03-30 15:56:51
2023-03-30 15:56:22
2023-03-30 15:52:34
2023-03-30 15:51:32
2023-03-30 15:49:56
2023-03-30 15:49:46
2023-03-30 15:48:57
2023-03-30 15:48:14
2023-03-30 15:47:38
2023-03-30 15:47:28
2023-03-30 15:46:56
2023-03-30 15:46:18
2023-03-30 15:46:08
2023-03-30 15:45:43
2023-03-30 15:44:57
2023-03-30 15:44:51
2023-03-30 15:43:57
2023-03-30 15:43:34
2023-03-30 15:42:41
2023-03-30 15:42:18
2023-03-30 15:38:14
2023-03-30 15:37:15
2023-03-30 15:36:20
2023-03-30 15:35:42
2023-03-30 15:35:29
2023-03-30 15:33:58
2023-03-30 15:33:41
2023-03-30 15:33:11
2023-03-30 15:29:00
2023-03-30 15:28:07
2023-03-30 15:26:22
2023-03-30 15:18:34
2023-03-30 14:59:48
2023-03-30 14:50:25
2023-03-30 14:42:58
2023-03-30 14:40:20
2023-03-30 14:36:57
2023-03-30 14:35:00
2023-03-30 14:29:45
2023-03-30 13:57:02
2023-03-30 13:51:54
相關新聞