看板 AI_Art
https://www.ithome.com.tw/news/175414 基本資訊 模型名稱:talkie(talkie-1930-13b) 參數規模:130 億(13B) 開發團隊:Nick Levine、David Duvenaud、Alec Radford(Alec Radford 是 OpenAI GPT、GPT-2、CLIP、Whisper 等經典模型的關鍵貢獻者) 發布時間:2026 年 4 月(文章發布隔天左右) 官方網站:https://talkie-lm.com/ 聊天體驗:https://talkie-lm.com/chat 模型下載(Hugging Face,Apache 2.0 開源授權):Base 模型:talkie-1930-13b-base 指令微調(聊天)版本:talkie-1930-13b-it 訓練數據與設計理念 知識截止時間:嚴格限制在 1930 年底之前(即 1931 年 1 月 1 日 前)。選擇這個時間點是因為 1930 年出版的作品已進入美國公共領域,可合法大量使用 。 訓練數據量:約 2600 億 tokens(260B tokens)的純英文歷史文本。 數據來源:書籍、報紙、期刊、科學論文、專利、判例法等歷史文件的數字掃描件。完全 排除現代網路內容、Wikipedia、現代事件。 目的:測試 AI 的推理能力 vs. 記憶能力(memorization vs. generalization)。 模擬「與 1930 年前的人對話」的感覺,觀察模型在缺乏現代知識時如何回應、推論,甚 至「預測未來」。 研究訓練資料對模型行為、文化偏見、時代錯置(anachronism)的影響。 這是目前已知最大的「復古語言模型」(vintage LM)。團隊未來計劃擴大到兆級 tokens,並開發更高品質的歷史文字辨識技術。性能表現在語言理解與基本數學能力上, 表現接近同架構的現代模型。 在知識性任務(需要現代知識)上明顯落後,這是預期的。 若排除時代錯置錯誤,與現代對照模型的差距可縮小約一半,顯示部分差異來自知識缺口 ,而非純粹推理能力不足。 特色:回應會帶有時代風格(例如維多利亞時代語氣),在回答現代問題時可能出現有趣 或荒謔的推論(如對火箭回收、印度獨立、電話號碼的時代局限性看法)。 團隊也訓練了一個使用現代網路資料的對照模型,用來比較訓練資料的影響。 技術細節與未來計劃 提供原始 base 模型與指令微調(IT)聊天版本。 後訓練(post-training)過程中使用了現代模型(如 Claude)來產生合成數據或作為評 判,但團隊意識到這可能造成污染,並計劃在未來版本中盡量避免。 模型可展現從少量上下文例子中學習的能力(如學習寫 Python 程式碼),即使訓練資料 中完全沒有現代程式碼,顯示其泛化潛力。 未來:計劃訓練 GPT-3 規模的復古模型,繼續探索 AI 如何從有限歷史資料中「發明」 新知識或預測未來。 注意事項 模型輸出可能反映 1930 年前的文化與價值觀,可能包含不準確、過時甚至冒犯 性的內容。 目前僅支援英文。 這不是商用產品,而是研究導向的開源項目,主要用於學術探索 AI 本質。 -- 以下是網友對 Talkie-1930(這個復古語言模型)的反應收集整理(截至 2026 年 4 月 30 日)。這個模型發布才兩天左右,反應主要集中在 Hacker News、Reddit( r/singularity、r/machinelearning、r/ClaudeAI 等版)、X(Twitter) 以及科技媒體 討論區,熱度相當高,尤其在 AI 研究與好奇社群中。整體評價正面居多:大多數網友覺 得「超酷(so cool)」、「有趣(fascinating)」、「思想實驗級的項目」。很多人讚 賞它在研究「memorization(記憶) vs. generalization(泛化/推理)」上的價值,認 為這是少見的「純淨」實驗,能幫助理解 LLM 的本質。 常見關鍵詞:time travel(時光旅行)、vintage LLM、frozen in 1930、talking to someone from the past。 缺點批評:回應有時代風格(老派英文、過時觀念),有時會出現 anachronism(時代錯 置,例如不小心知道 Roosevelt 或 New Deal),以及 OCR 噪音 導致的知識不準確。部 分人覺得它「可愛但天真」(對現代事物的推論很荒謬卻有趣)。 主要討論平台與反應摘要 1. Reddit(特別熱門)r/singularity 貼文獲得超過 2100 upvotes、330 則留言。 https://www.reddit.com/r/singularity/comments/1sxp4ha/talkie_a_13b_lm_trained_exclusively_on_pre1931/ 網友熱衷分享對話截圖:問飛機能飛多高?能不能到月球?Talkie 給出 1930 年代的保 守推測。 有人測試它從幾個例子學習寫 Python 程式碼(訓練資料完全沒有現代程式碼),結果「 surprisingly well」,被視為泛化能力的證明。 很多人說:「感覺真的像在和 1930 年代受過教育的人聊天」,既有魅力也有「壞點子」 (如帝國主義、優生學相關的過時觀念)。 其他版塊(如 r/OpenAI、r/ClaudeAI、r/LocalLLaMA)也有不少人分享:「這太酷了, 真的有時光機感覺」。 2. Hacker News討論串有 741 points 和 314 則評論,屬於高熱度貼文。 https://news.ycombinator.com/item?id=47927903 焦點在技術細節:訓練資料的清洗、anachronism classifier(時代錯置過濾器)還不完 美。 有人實際去 chat 頁面測試,覺得等待時間有點久,但回應風格很「真實」。 討論延伸到 OCR 技術、公共領域資料的利用,以及未來更大規模 vintage 模型的可能性 。 3. X(Twitter)上的反應開發者 David Duvenaud 和 Nick Levine 的公告獲得數千 likes 和大量轉發。 https://x.com/DavidDuvenaud/status/2048878076633682133 網友分享有趣對話:Talkie 把「Internet」解釋成「計算資本獲利的利息」(超可愛的 時代誤解)。 它自稱是「recording machine」(因為 1930 年前沒有「AI」這個詞)。 問它關於未來或自我意識,它會用 19-20 世紀初的哲學/道德語氣回答,感覺像在讀老書 。 有人測試它對英國帝國的看法,並與現代模型(Claude、GPT、Gemini)比較,突顯訓練 資料對價值觀的影響。 也有人注意到它偶爾會「夢遊」到更早的年代(覺得自己活在 1850 年左右)。 4. 媒體與部落格反應Gizmodo、Boing Boing、The Decoder 等媒體報導時,強調它的「 時光旅行」趣味性,以及它對二戰、希特勒、現代科技的「預測」(通常保守或錯得有趣 )。 歷史學者或人文背景的網友特別興奮,認為這可能開啟「歷史語言模型」或「人文 AI」 的新領域。 部分人提醒:模型會反映 1930 年前的文化偏見(帝國視角、種族/性別觀念等),使用 時要有心理準備。 常見有趣的使用情境問現代事件(如電腦、太空旅行、網路),看它如何用蒸汽船、鐵路 時代的邏輯「推論」。 測試長程預測:它對未來世界的想像(大多仍是蒸汽與鐵路的延伸)。 讓它從少量例子學習新技能(證明泛化而非死記)。 觀看官方 live feed:Claude 不斷提問 Talkie,公開展示對話。 總結來說,網友的反應以好奇、驚奇和研究興趣為主,很多人視之為一個「可愛又發人深 省」的實驗,而不是實用聊天工具。負面聲音較少,主要集中在模型還不夠「純淨」(有 少量污染)和回應偶爾過於老派。 -- Grok整理 也許是比grok更加政治不正確的AI -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 114.36.240.115 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/AI_Art/M.1777516902.A.738.html
ct13579: 有趣,還能用這種方法來訓練AI模型 04/30 10:45
error405: #1fIqyPDs (AI_Art) 去年也有1913的AI 忘了講 04/30 10:48
Tosca: 這種就拿來寫小說或電影劇本很好用 不太有歷史錯誤 04/30 15:07
Tosca: 印象中有部陸劇還有句台詞是八年抗戰剩下三年XDDDDDDD 04/30 15:07
Tosca: 你在打的時候怎麼會知道剩下幾年啦XDDDD 04/30 15:08
Kroner: 有人知道UC2和其他關節保健品的差異嗎? 04/30 15:08
asunal: 酷 04/30 17:42
avans: 推推,沒有想過訓練資料特意排除現代資訊後的模型的結果xd 04/30 17:45
ct13579: 以是不是還能有中世紀模型XD 04/30 21:31
v86861062: 酷 04/30 21:42
Chricey: 關節痛有人有有效的復健方法嗎? 04/30 21:42
yyykk: 這個真的超有趣! 05/04 11:19