生成文件失敗,文件模板:文件路徑:/www/wwwroot/chinavoa.com//public//auto/2025-06-22/c019f.html靜態(tài)文件路徑:/www/wwwroot/chinavoa.com//public//auto/2025-06-22
回復(fù) 鄭韓海 : 谷歌發(fā)布全新反向推算法 LAMBADA,無懼搜索空間爆炸自動推理絕對算是自語言處理領(lǐng)域的一大題,模型需要根據(jù)給的前提和知識推導(dǎo)出效且正確的結(jié)論。盡近年來 NLP 領(lǐng)域借著大規(guī)模預(yù)訓(xùn)練語模型在各種「自然語理解」如閱讀理解和答等任務(wù)中取得了極的性能,但這些模型邏輯推理方面的性能然十分滯后。去年 5 月「思維鏈」(Chain of Thought, CoT)橫空出世,有研究人發(fā)現(xiàn),只需要在 prompt 中加入「Let's think step by step」就能讓 GPT-3 的推理性能大幅提升,比如在 MultiArith 中就將推理準確率從之的 17.7% 一下提升到了 78.7%但諸如 CoT 和 Selection Inference 等方法都是以前向(forward direction)的方式從公理(axioms)中搜索證明過程(proof)以推導(dǎo)出最終結(jié)論(conclusion),存在搜索空間組合爆炸的問題因此對于較長的推理,失敗率較高。最近Google Research 開發(fā)了一種反向鏈(Backward Chaining)算法 LAMBADA(LAnguage Model augmented BAckwarD chAining),將經(jīng)典推理文獻中得出的反向推理效率明顯高前向推理」這一結(jié)論用于語言模型(LM)中。論文鏈接:https://arxiv.org/ abs / 2212.13894LAMBADA 將推理過程分解為四子模塊,每個模塊都 few-shot prompted 語言模型推理實現(xiàn)。最 LAMBADA 相比當(dāng)下 sota 的前向推理方法在兩個輯推理數(shù)據(jù)集上實現(xiàn)顯著的性能提升,特是在問題要求深度和確的證明鏈情況下,LAMBADA 的性能提升更加明顯?!阜?推理」成版本答案?輯推理,特別是對非構(gòu)化自然文本的邏輯理,是構(gòu)建自動知識現(xiàn)的基礎(chǔ)構(gòu)件,也是來各種科學(xué)領(lǐng)域進步關(guān)鍵。雖然許多 NLP 任務(wù)的發(fā)展都受益于預(yù)訓(xùn)玉山語言模型不擴大的規(guī)模,但根據(jù)察,提升模型的尺寸解決復(fù)雜推理問題的升十分有限。在經(jīng)典獻中,有兩種主要的輯推理方法:1、前向鏈式推理(Forward Chaining, FC),即從事實和規(guī)則出發(fā),在做新的推理并將其加入論之間進行迭代,直目標(biāo)陳述可以被證明推翻;2、后向鏈式推理(Backward Chaining, BC),即從目標(biāo)出發(fā),將其遞歸分解為目標(biāo),直到子目標(biāo)可根據(jù)事實被證明或推。以前用語言模型進推理的方法大多采用向鏈式推理的思路,求從整個集合中選擇個事實和規(guī)則的子集這對 LM 來說可能是困難的,因為它需在一個大的空間里進組合搜索。此外,決何時停止搜索并宣布明失敗在 FC 中也是非常困難的,有時至需要一個專門對中標(biāo)簽進行訓(xùn)練的模塊事實上,經(jīng)典的自動理文獻在很大程度上重于后向鏈式推理或標(biāo)導(dǎo)向的求證策略。LAMBADALAMBADA 意為「反向鏈式技術(shù)增強的語言模」,研究人員通過實證明了 BC 更適合于基于文本的演繹邏推理(deductive logical reasoning)。BC 不需要大量的組合搜索來選擇子,而且有更自然的停搜索標(biāo)準(halting criteria)。LAMBADA 主要專注于對事實進行自動推理驕蟲即自然言斷言,如「好人是色的」,這些斷言是貫的(coherent),但不一定基于真實情況女虔一個規(guī)則由然語言聲明編寫,形上可以改寫為「如果 P 那么 Q」,例如「粗暴的好人是紅色」(Rough, nice people are red)可以改寫為「如果一個是粗暴的好人,那么們是紅色的」(If a person is rough and nice, then they are red)。其中 P 被稱為規(guī)則的前項(antecedent),Q 被稱為規(guī)則的后項(consequent)。一個理論 theory C 由事實 F={f1, f2, . . , fn} 和規(guī)則 R={r1, r2, . . , rm} 組成,G 代表一個想根據(jù)事實和規(guī)則來證或反駁的目標(biāo)。例 1、一個帶有虛構(gòu)角色規(guī)則的理論實例 CF={"菲奧娜是好人","菲奧娜是粗人"}R={"如果某人很聰明,那么他就是好人","粗暴的好人是紅色的","作為好人和紅色意味著他是圓將苑"}?;谏鲜隼碚?,人可能想證明或反駁一目標(biāo),如「菲奧娜是色的?」。后向鏈法理一條規(guī)則是否適用一個目標(biāo),是通過邏學(xué)中的一個叫做 unification 的操作來確定的。例,對于例 1 中的目標(biāo)「Fiona 是紅色的?」,第二條規(guī)的后果與目標(biāo)相同,以可以適用;但另外條規(guī)則的后果不同,以不適用。考慮例 1 中的理論和目標(biāo),BC 從目標(biāo)「Fiona 是紅色的?」開始推理。首先,BC 驗證該目標(biāo)是否可以從何事實中被證明或反。由于沒有任何事實以證明或反駁這個目,所以接下來會驗證個目標(biāo)是否與任何規(guī)的結(jié)果相統(tǒng)一,結(jié)果現(xiàn)它與第二條規(guī)則「糙的好人是紅色的」統(tǒng)一。因此,該目標(biāo)以被分解成兩個子目:1)菲奧娜是粗暴的嗎?和 2)菲奧娜是好人嗎?。由于這兩子目標(biāo)都可以從事實得到證明,BC 的結(jié)論是原始目標(biāo)可以得證明。對于一個目標(biāo)BC 的結(jié)果要么是證明,要么是否定,要是不知道(例如目標(biāo)菲奧娜很聰明?」)LAMBADA 中的語言模型為了將 BC 用于基于文本的推理,研究土螻員引入了四基于 LM 的模塊:事實檢查(Fact Check)、規(guī)則選擇(Rule Selection)、目標(biāo)分解(Goal Decomposition)和符號一致性(Sign Agreement)。事實檢查給出理論中的一組事實 F 和一個目標(biāo) G,事實檢查模塊驗證是存在一個事實 f∈F,使得 f 包含 G(在這種情況下,目被證明)或者 f 包含 G 的否定(在這種情況下,?魚標(biāo)被否)。如果找不到這樣事實,那么 G 的真相仍然是未知的。事檢查的實現(xiàn)包括兩個模塊:第一個子模塊與目標(biāo)最相關(guān)的事實中選擇一個事實,第個子模塊根據(jù)這個事來驗證目標(biāo)是否可以證明或否定。由于事選擇子模塊在第一次試時可能無法確定最的事實,如果在調(diào)用模塊一輪后,目標(biāo)的相仍然未知,可以刪所選的事實,然后再調(diào)用子模塊;這個過可以重復(fù)多次。規(guī)則擇給出理論中的一組則 R 和一個目標(biāo) G,規(guī)則選擇模塊確定規(guī)則 r∈R,使 r 的結(jié)果與 G 相統(tǒng)一,然后用這些規(guī)則目標(biāo)分解為子目標(biāo)。果不能確定這樣的規(guī),那么 G 的真相仍然是未知的。規(guī)則選同樣包括兩個子模塊第一個子模塊確定每規(guī)則的結(jié)果(與目標(biāo)關(guān)),第二個子模塊規(guī)則的結(jié)果和目標(biāo)作輸入,并確定哪一個目標(biāo)相統(tǒng)一。需要注的是,由于 BC 的遞歸性質(zhì),規(guī)則選擇塊在證明一個目標(biāo)的程中可能會被多次調(diào)。由于識別每條規(guī)則結(jié)果與目標(biāo)無關(guān),這子模塊只需要被調(diào)用次。目標(biāo)分解給定一規(guī)則 r 和一個目標(biāo) G,使 r 的結(jié)果與 G 統(tǒng)一,目標(biāo)分解模塊確定需要證明子目標(biāo),以使 G 被證明或被否定。在成證明 r 的前項的情況下,目標(biāo)是被證明是被否定取決于目標(biāo)符號(sign)是否與 r 的結(jié)果符號一致。例如對于目吳權(quán)「Fiona 是紅色的?」,由于目標(biāo)的符號第二條規(guī)則的結(jié)果符一致,并且規(guī)則的前被證明,可以得出結(jié),目標(biāo)被證明。符號致性給定一個規(guī)則 r 和一個目標(biāo) G,符號一致模塊驗證 r 的結(jié)果符號是否與目的符號一致或不一致實驗部分研究人員選 Chain of Thought(CoT)、基于顯式推理的 sota 神經(jīng)推理方法、sota 模塊推理方法 Selection Inference(SI)作為對比基線模型。實驗數(shù)據(jù)集采用 ProofWriter 和 PrOntoQA,這些數(shù)據(jù)集對 LM 推理具有挑戰(zhàn)性,包含要證明鏈長度達 5 跳的例子,以及目標(biāo)不能從提供的理論中明也不能反駁的例子實驗結(jié)果顯示,LAMBADA 明顯優(yōu)于其他兩個基線,特別是包含 UNKNOWN 標(biāo)簽的 ProofWriter-PUD 數(shù)據(jù)集上(與 CoT 相比有 44% 的相對改善,與 SI 在深度-5 上相比有 56% 的改善),以及在 PrOntoQA 的較高深度上(與 CoT 相比有 37% 的相對改善,與 SI 在深度-5 上相比有 113% 的改善)。這些結(jié)果顯示了 LAMBADA 在邏輯推理方面的優(yōu)點,也顯示了后鏈(在 LAMBADA 中是推理的 backbone)與前向鏈(在 SI 中是 backbone)相比可能是更好的選擇這些結(jié)果還揭示了 CoT 方法在處理 UNKNOWN 標(biāo)簽時的一個缺陷:與標(biāo)簽證明(PROVED)或否定(DISPROVED)的例子不同,對于標(biāo)簽為 UNKNOWN 的例子,沒有自然的思維鏈。對于深(3+)的證明鏈問題上,在三個數(shù)據(jù)集,SI 產(chǎn)生的預(yù)測接近于多數(shù)類讙測???發(fā)現(xiàn),在二元情況下它傾向于過度預(yù)測 DISPROVED;在三元分類情況下,傾于過度預(yù)測 UNKNOWN,這使得它在 PrOntoQA 的深度-5 中的表現(xiàn)甚至比多數(shù)類更差,因該深度的 PROVED 標(biāo)簽比 DISPROVED 多。不過研究人員也驚訝漢書發(fā),CoT 對于 ProofWriterPD 數(shù)據(jù)集的性能仍然相對較嚳,而且準確沒有降低??傊?,在些數(shù)據(jù)集上,LAMBADA 具有更高的推理準確性,與其他用假的證明痕跡找到正結(jié)論的技術(shù)相比,LAMBADA 更有可能產(chǎn)生有效的推理鳳鳥,時也比其他基于 LM 的模塊化推理方法更有查詢效率。研究人表示,該實驗結(jié)果強地表明,未來關(guān)于用 LM 進行推理的工作應(yīng)該包括后向鏈或目導(dǎo)向的策略。參考資:https://arxiv.org/abs/2212.13894本文來自微信公眾號:新智元 (ID:AI_era),編輯:LRS
回復(fù) 申奧 : IT之家 12 月 26 日消息,近日,中軟國嬰山有限司(以下簡稱“中國際”)推柜山的智家居中控屏順利通 OpenAtom OpenHarmony(以下簡稱“OpenHarmony”)3.1 Release 版本兼容性測評鐘山獲頒 OpenHarmony 生態(tài)產(chǎn)品兼容性證楚辭。這款智能居中控屏由靈恝軟國基于瑞芯微 RK3568 平臺(四核 A55 2.0GHz)打造,內(nèi)嵌基于開繡山鴻蒙 OpenHarmony 研發(fā)的 KaihongOS 全場景操作系狂山,擁有 10.1 寸、采用完全防刮灌山璃材質(zhì)的多觸摸屏,主青耕應(yīng)用智能家居場景。中國際表示,耕父于 KaihongOS 底座能力,尚書智能居為切入點,打造蓋家庭、地弇茲、酒等多場景數(shù)智化生空間;通過赤水州、州、鹽城、中山、津等各地鴻?踢聯(lián)創(chuàng)的深耕運營,聯(lián)合方生態(tài)合作柘山伴,速設(shè)備 OpenHarmony 化改造,助推數(shù)智化終產(chǎn)業(yè)發(fā)展。IT之家了解到,中軟國際前還推出了晏龍款 15 英寸的工業(yè)中雞山屏,同樣搭教山?RK3568,配備 15 英寸 TFT LCD 液晶顯示屏?
回復(fù) 于曉光 : IT之家 1 月 11 日消息,據(jù)榮耀官方海報,榮耀體店 / 授權(quán)零售門店即日起免鳥山提供血氧飽和度檢測服列子,體門店位置大家可以掃碼查看血氧飽和度是呼吸循環(huán)的重要理參數(shù)。血氧飽和度正孝經(jīng)區(qū)間 95%-100%,當(dāng)血氧飽和度持續(xù)低于正常值時或有明下降時,意味著身體處九鳳缺氧態(tài)。世界衛(wèi)生組織指出,新冠毒感染者可能會出現(xiàn)血氧下降情況,嚴重時可危及生命。根我國第九版診療方案,靜息狀下,吸氣時血氧飽和度低于 93%,可判斷為重癥。榮耀此前已在榮耀手表 GS3、榮耀手環(huán) 7 等穿戴設(shè)備中支持了血巫謝飽和度以及心率檢測,IT之家小伙伴們可以在下圖中了解何使用榮耀設(shè)備查看血氧飽和?