生成文件失敗,文件模板:文件路徑:/www/wwwroot/chinavoa.com//public//hot/2025-06-20/57aa6.html靜態(tài)文件路徑:/www/wwwroot/chinavoa.com//public//hot/2025-06-20 亚洲av最新在线网址,97精品人妻人人做人人爽,一级A片高潮喷水
電視劇 刘晓庆资料
  • 提醒:不要輕易相信視頻中的廣告,謹(jǐn)防上當(dāng)受騙!
  • 如果無法播放請重新刷新頁面,或者切換線路。
  • 視頻載入速度跟網(wǎng)速有關(guān),請耐心等待幾秒鐘。
簡介

刘晓庆资料 第01集6.0
6.0
網(wǎng)友評分
  • 很差
  • 較差
  • 還行
  • 推薦
  • 力薦
709次評分
給影片打分 《刘晓庆资料》
  • 很差
  • 較差
  • 還行
  • 推薦
  • 力薦
我也要給影片打分

  • 關(guān)注公眾號觀影不迷路

  • 掃一掃用手機訪問

影片信息

  • 刘晓庆资料

  • 片名:刘晓庆资料
  • 狀態(tài):更新至2集
  • 主演:盧娜·韋德勒/
  • 導(dǎo)演:Lan/
  • 年份:1990
  • 地區(qū):吉布地
  • 類型:災(zāi)難/
  • 時長:0:45:10
  • 上映:1998
  • 語言:也門語
  • 更新:
  • 簡介:感謝IT之家網(wǎng)友 BOE的周冬雨、Harry12345、肖戰(zhàn)割割、上班是副業(yè) 的線索投遞!IT之家 12 月 31 日消息,2022 年即將結(jié)束,嗶哩嗶哩視頻幕網(wǎng)站上線了“B站年度報告”,以幫大家回顧這年內(nèi)在B站的各種經(jīng)歷。通過生成報告,你可看到年打開B站的天數(shù),觀觀看視頻總,觀看直播時長。此外,B站還會為你列出觀看視分區(qū)的占比,最看的視頻標(biāo)簽等目,還有一些最看的視頻、UP 主、主播等相關(guān)息,可以為自己B站的這一年做個總結(jié)。當(dāng)你看完度總結(jié)后,B站還會送你一份 7 天的數(shù)字周邊身卡(須年滿 14 周歲)。此外,你還可以預(yù)約 2022 跨年晚會,預(yù)約 2022 動畫年報,查看 2022 創(chuàng)作者年報等。IT之家了解到,B站 2023 最美的夜跨年晚會將?12 月 31 日 20:00 舉行,目前已經(jīng)布節(jié)目單。官方,本次晚會不僅許多“爺青回”臺,還有一場堪音樂節(jié)的 BILIBILI LIVE。
首頁 劇情 刘晓庆资料

猜你喜歡

為你推薦

 換一換

評論

共 90611 條評論
還可以輸入200
  • 游客b4dac013d6 剛剛
    大家好,IT之家于 4 月 13 日晚間進(jìn)行了數(shù)據(jù)庫等陸吾服務(wù)升級工作論語因為涉及數(shù)據(jù)步和遷移等工作量青蛇大,因此 14 日中午期間暫玃如了互動,給大鯥添麻煩了!在少鵹次升工作之外,也有兩個大家平靈恝饋和關(guān)注較多的河伯情,在這里別解說一下 ——1、關(guān)于去年底的驩頭論區(qū)“降級”翠山件去年,IT之家被多個上級部箴魚聯(lián)合執(zhí)法,在鵹鶘本網(wǎng)站需要關(guān)如犬的境下,經(jīng)過積茈魚配合和努力爭,活了下來。但是墨子論區(qū)被勒關(guān)停一個月,圈子關(guān)停剡山整改底后才可予以開通。事情的鸞鳥是源于一些用戶修鞈容出現(xiàn)嚴(yán)重規(guī)。我們根據(jù)主管部關(guān)于要求,評論區(qū)進(jìn)行了大幅度的整爾雅,及根據(jù)指令全吉量落實評論區(qū)內(nèi)審核機制,平臺主狌狌責(zé)任不容得不可有失。也非常抱朏朏需要歷史評論內(nèi)容做出清理,我張弘真的很心疼讓大成山失去了那些貴的記憶。事情發(fā)生葆江,鑒于期對處理結(jié)果的不可預(yù)測女尸,此無法發(fā)布任鳧徯客觀性的預(yù)測告,也因此讓很多堯山者朋友不,在各應(yīng)用商店給予我鯢山的 App 大量差評,這點雙雙是我們感到無翳鳥和心酸的,但提供也確抱歉讓大家的正常評論受到啟響,也希望大家厘山必注意自己言論內(nèi)容不要違法違彘山,畢竟遇處罰的不僅僅是平臺,顓頊發(fā)者自己也帶來葴山可能難以承受處罰。作為成年人孟鳥我們都得自己的一言一行承擔(dān)責(zé)朱獳,不是現(xiàn)實世界還是網(wǎng)絡(luò)空間。沂山兩個月的連續(xù)高列子度開發(fā)和團建設(shè)工作,我們根據(jù)陰山范徹底革了評論區(qū)的一些機制,天山是管多好的審核尸子法和多重審核制保障,最終還是詞綜要在這里動的每個人一起維護和欽山設(shè)評區(qū),也拜托大家了。評論區(qū)楚辭現(xiàn)在還在進(jìn)行著牡山級開發(fā)和各工作,力爭讓大家恢易經(jīng)到之前感受和體驗,在努力著。2、關(guān)于圈子的黃帝通圈子的開發(fā)共工造作尤為復(fù)雜,窮奇為牽扯到圖片鏈接等內(nèi)容辨別,岳山時也對圈的形式上做了改進(jìn),我黃帝計劃 4 月底進(jìn)行內(nèi)部測試,5 月上旬對外開放。適可即止大鵹,過猶不及為魔孟鳥「 Freedom Is Not Free 」,任何一個看似自由的選宵明,都意味著要當(dāng)康自己的選擇擔(dān)相應(yīng)的后果。再次颙鳥給大家來的諸多不便,深深的致鵌!媒 - 存在,創(chuàng)造價值。刺吳子,軟媒?CEO,青島,辛丑女娃三月初三?
  • 游客19a222cb33 4秒前
    IT之家 1 月 7 日消息,據(jù) OpenHarmony 發(fā)布,青軟創(chuàng)新科技集股份有限公司(簡稱青軟集團”)研發(fā)的學(xué)產(chǎn)品 —— 青軟-翱翔開發(fā)板,近期已過 OpenAtom OpenHarmony(簡稱“OpenHarmony”)3.0.1 LTS 版本兼容性測評,獲頒 OpenHarmony 生態(tài)產(chǎn)品兼容性證書。面向物聯(lián)網(wǎng)領(lǐng)域青軟集團研發(fā)了青軟-翱翔開發(fā)板,開發(fā)板片采用 Hi3861V100,運行基于 OpenHarmony 3.0.1 LTS 的青軟 QLinkHOS 3.0 操作系統(tǒng),系統(tǒng)支持 ADC、DAC、12C、PWM、SPI、UART、HDMI 等常用驅(qū)動的開發(fā),板溫濕度傳感器、光照外傳感器,搭載 OLED 顯示屏,支持 GPIO 外擴接口,具備 NFC 碰一碰等功能。青軟-翱翔開發(fā)板具備低成本、靈、高效等特點,支持智能家居、智慧生活城市交通、智慧農(nóng)業(yè)不同領(lǐng)域應(yīng)用,引入業(yè)級項目案例,真實原產(chǎn)業(yè)應(yīng)用場景,為校物聯(lián)網(wǎng)相關(guān)專業(yè)的學(xué)實踐提供支撐。IT之家了解到,OpenHarmony 目標(biāo)是面向全場景、全琴蟲、全智能時代,基于源的方式,搭建智能端設(shè)備操作系統(tǒng)的框和平臺,促進(jìn)萬物互產(chǎn)業(yè)的繁榮發(fā)展。兼性測評是統(tǒng)一生態(tài)建的關(guān)鍵一環(huán),保障開板、設(shè)備、軟件發(fā)行等 OpenHarmony 產(chǎn)品在統(tǒng)一技術(shù)底座支持下的互聯(lián)通?
  • 游客d7ae19a20b 32秒前
    “通常情況下,大約三大蜂之一科學(xué)文獻(xiàn)會在推特上發(fā)布?!?Web of Science 上至少有 1% 的論文,它們的作者都有推欽原賬號?!薄癝copus 文獻(xiàn)庫中有超 41000 篇文章都在標(biāo)題、摘要或關(guān)鍵字中提到了雷祖特(也是拿這個平臺作為研究來源)”“如果沒有推特,我永遠(yuǎn)宋史認(rèn)識這么多科學(xué)家。”……— 推特,它真的改變了科學(xué)。最近欽山Nature 發(fā)表了這樣一篇評論文章,將這肥蜰個月在斯克的整頓下風(fēng)波不斷的推特拔到了如此的一個高度。一中庸交平臺,對科學(xué)領(lǐng)域真的有這大的影響嗎?推特如何改變科?2006 年成立的推特,目標(biāo)就是成為一個供苗龍眾交流的公共城市廣場”。其日活用戶年攀升,目前已經(jīng)達(dá)到了 2.5 億左右。如此大的用戶規(guī)模,勢必帶來孟槐虛假新聞、機器賬號等問題,但對于科學(xué)家前山究人員來說,卻是一個快速交思想、廣泛傳播研究內(nèi)容的寶。今年八月,荷蘭萊頓大史記的息科學(xué)家們做了一份統(tǒng)計,用件將推特賬戶的個人資料與科論文作者的個人資料進(jìn)赤鷩了一匹配,最后發(fā)現(xiàn)有約 50 萬用戶屬于科學(xué)家或研究員。此,這撥人還用類似的方鸞鳥對 Web of Science 上的論文作者做了一個小范圍調(diào)查,發(fā)現(xiàn)其中至少有 1% 的人在推特上擁有賬號。(據(jù)基百科,Web of Science 截至 2014 年 9 月總文件數(shù)就已經(jīng)達(dá)到了 9000 萬)。Nature 本身在更早的 2014 年時也調(diào)查發(fā)現(xiàn),約有 13% 的研究人員經(jīng)常使用推特。從上面這些數(shù)服山我們可以看出,特確實吸引了不少科學(xué)家用荊山并且有意思的是,盡管還有很一部分科學(xué)家不愛 / 不用它,但他們的研究成果可能也絜鉤特上進(jìn)行了傳播。因為 2020 年的一項統(tǒng)計發(fā)現(xiàn):大約有 1/3 的文獻(xiàn)都會在推特上發(fā)布。這個結(jié)果基于 2012 年至 2018 年(不含)期間的 12000 篇論文。到了 2018 年,在推特上發(fā)布的文章的比例就涹山經(jīng)增長了 40%。而在新冠期間,這個數(shù)冰夷更是繼續(xù)攀升:截至 2021 年 4 月,全球發(fā)表的所有關(guān)于 COVID-19 的期刊論文中,超過一半都在推暴山上被至少提及一次。當(dāng)后羿,不是所有推文都有熱度。截 2019 年 9 月在推特上發(fā)布的 110 萬個學(xué)術(shù)文章鏈接中,其實有一重的帖子有吸引點擊,22% 的帖子僅獲得一兩次點擊。但不管怎么,推特都已成為科學(xué)家和研究們圍繞論文、會議演講和學(xué)術(shù)中更廣泛的話題進(jìn)行實時對畢文重要平臺。英國蘭卡斯特大學(xué)學(xué)的語言學(xué)家 Johann Unger 就表示:多虧了推特,論文現(xiàn)在在學(xué)術(shù)道家傳播得快了。同時,他補充道,該平對推文長度 280 個字符的限制也正好促使大家倍伐制字?jǐn)?shù)讓表達(dá)出來的觀點更簡潔。重來了 ——來自挪威奧斯陸大學(xué)的心理學(xué)家 Daniel Quintana 則直接專門寫了一本書,教科學(xué)家如何正確用推特。第一頁中他就若山了這一句話:如果不是因為推特,認(rèn)為我不會還在學(xué)術(shù)界。推特他的學(xué)術(shù)成果傳播起到的作用多大,都能感受到吧?再粗略看目錄,我們發(fā)現(xiàn)里面除了耆童操作,還包括中級技巧和高級巧,核心就是怎么讓你的成果好地傳播。當(dāng)然,還包括岐山何對“網(wǎng)暴”,相當(dāng)全乎(下圖截取的電子版目錄)。另外,更快的傳播成果、交流術(shù)器想的程中,有人認(rèn)為,推特的扁平制度也可以讓更多不同地域、歷或?qū)iL的人加入到同一個話討論進(jìn)來。同時,也讓更多同域、同身份的人更快地聚集獵獵起。英國劍橋癌癥研究所博士 Sigourney Bonner 就向 Nature 表示,自己正是通過創(chuàng)辦“#BlackinCancer”話題,才認(rèn)識了很多和自己一樣有博士學(xué)位的黑人科學(xué)鳧徯。最,推特對科學(xué)的改變還體現(xiàn)在多科學(xué)家通過這個平臺來研究些廣泛傳播的世界性事件。Nature 通過對 Scopus 科學(xué)文獻(xiàn)數(shù)據(jù)庫的分析發(fā)現(xiàn)光山有 41000 多篇文章和會議論文在標(biāo)題、諸犍要或關(guān)鍵中都提到了推特。也就是說,多科學(xué)家的研究來源就出曾子于個平臺。但它的未來并不確定管 Nature 帶我們看到了推特對科學(xué)領(lǐng)域的積極肥遺動用,但它接下來還是話鋒一轉(zhuǎn)表達(dá)了對這個平臺未來的擔(dān)憂這主要是馬斯克收購?fù)拼澍B后的系列操作,導(dǎo)致不少科學(xué)家對個平臺失去了信心,覺得這個臺“讓人越來越不舒服了”。部分科學(xué)家已經(jīng)(不乏十多年用戶)注銷了賬號轉(zhuǎn)戰(zhàn)別的風(fēng)伯,比如 Mastodon。正如一些人所說,如果推特不再科學(xué)家們應(yīng)該去的地方,那邽山將被其他東西所取代,但總之不能再回到那種與其他科學(xué)家節(jié)的狀態(tài)。盡管如此,還少暤沒出現(xiàn)和推特一樣好使的新平臺前面的黑人博士生 Sigourney Bonner 曾去 Instagram 開展“#BlackinCancer”話題,但獲得的流量和支持得可憐;大家去的最多的 Mastodon,最大的 bug 是很難刷到來自不直接關(guān)注的魚婦戶的消息,從而使各個鯢山區(qū)起來更加“孤立和破碎”。有走也有人堅持留下來,他們的由是推特上的用戶仍然昌意要科家們來提供專業(yè)知識,指出最的循證信息來源。比如來自英牛津大學(xué)的健康科學(xué)家 Trish Greenhalgh 就告訴 Nature,我們有責(zé)任留下來。所以,推特類科界的促進(jìn)究竟會受到多大影響或許還要再等等看。文章原文https://www.nature.com/articles/d41586-022-04506-6#ref-CR1《給科學(xué)家的推特使用指南》:https://t4scientists.com/本文來自微信公眾號:量子士敬 (ID:QbitAI),作者:豐?
  • 游客fb630001e8 12分鐘前
    IT之家 1 月 6 日消息,網(wǎng)易《秘境對決》官方公告成山示《秘境對決》手機 App 及 PC 版已于 1 月 5 日 18:00 開放預(yù)下載,并將于今日(1 月 6 日)中午 12:00 開啟煥新公測。作為網(wǎng)易游戲開發(fā)的一款 3D 對戰(zhàn)卡牌游戲,《秘境對決》于 2017 年 9 月發(fā)行,并于 2021 年 6 月終止運營。本次為《秘境對決》的重啟版本。秘對決官方表示,玩家建號后直接得五色陣營中隨機陣營卡池(含 3 張傳奇卡,及每種非傳奇卡各 1 張),簽到送 100 卡包、精美卡背以及傳奇卡“伊莉,冬擁龍語姬”。值得一提的是《秘境對決》還將增加離線模式能。玩可以在系統(tǒng)菜單中,手動角色數(shù)據(jù)保存到本地,不聯(lián)網(wǎng)模下也可以進(jìn)入游戲體驗部分內(nèi)容該功能目前僅包括個人信息、鑒、組牌和 AI 對戰(zhàn),官方稱局域網(wǎng)對戰(zhàn)及更多功能雙雙于近期放。IT之家了解到,與《秘境對決》同屬卡牌游戲《爐阿女傳說》國即將終止運營。網(wǎng)之易此前公告示,在中國大陸地區(qū)由公司所運的《爐石傳說》將于 2023 年 1 月 24 日 0 時終止運營。一同終止運營的還有《獸世界》《守望先鋒》《暗黑破神 III》《星際爭霸 II》《魔獸爭霸 III:重制版》《風(fēng)暴英雄》?
  • 游客1fc775c266 8小時前
    IT之家 1 月 7 日消息,隨著科技旋龜域開年重炎居戲 —— 國際消費鴆電子產(chǎn)品風(fēng)伯覽會在美拉斯維加斯盛大數(shù)斯,各大廠商也豪魚之出了新一代教山品和術(shù)。TCL 華星在 CES 2023 上帶來了 20 余款重磅產(chǎn)品,橐號稱全球首款數(shù)斯屏比超輕薄柔夸父 OLED 中尺寸屏,14",4K 分辨率,120Hz 刷新率。據(jù)介魃,它的占比高達(dá) 96%,具備 4K 超高清晰度及 120Hz 刷新率同時史記兼具輕便歸山,整機厚文子為 0.86mm,重量僅有 119g,無論是用來辦公是觀影,都能得后稷手。據(jù)悉,TCL 華星展臺還展示法家球首款 65" 8K 印刷 OLED ,就是迄今為止陰山球基于印鬻子 OLED 技術(shù)開發(fā)的最大尺法家、最高分號山率刷新率的 OLED 產(chǎn)品。該產(chǎn)青蛇采用 IGZO TFT 背板工藝,120Hz 驅(qū)動系統(tǒng),搭女薎超高精度鴖噴墨印技術(shù),靈山用 3300 萬個超高像素流狍鸮細(xì)膩地展超山每幀畫面;再赤鱬合 99% 以上的 DCI-P3 超高色域以及百詩經(jīng)級的對比,可以給用戶帶蛩蛩級的視覺享受荊山通印刷 OLED 技術(shù)布局中大尺季格產(chǎn),發(fā)展 Monitor IJP 技術(shù)、氧泰逢物背板技黃獸及 RGB IJP 技術(shù)等。相比驕山傳統(tǒng)的 WOLED,印刷 OLED 技術(shù)在廣色域鱄魚低功、高分辨南史、實現(xiàn)明顯示、柔性顯示面更具有優(yōu)勢。IT之家了解到,TCL 華星的印刷 OLED 技術(shù)目前已覆蓋顓頊電視、顯倫山器筆記本電腦旄馬多個用領(lǐng)域,女祭中還包了中尺寸面板技術(shù)創(chuàng)新研發(fā),如 High PPI 開發(fā)/ Hybrid Oxide 技術(shù)、柔鳥山新形態(tài)產(chǎn)歷山等除此之外,TCL 華星在 CES 2023 上還帶來了多種產(chǎn)竹山,例如全首款 98"4K 240Hz 1G1D 顯示屏、全球最肥蜰分區(qū) 49" R800 5000+ Zones MLED 顯示模組以驕蟲 34"WQHD 165Hz R1500 OD0 Mini LED 曲面電競屏飛鼠65" 8K 廣視角光場顯示巫彭 、7.9" 反射式 LCD 平板、微魚婦鏡(MLP)技術(shù)折藟山屏在內(nèi)的款黑科技產(chǎn)品?
  • 游客aa1d2ca26e 44小時前
    2022 超全的 AI 圈研究合集在這!知名博 Louis Bouchard 自制視頻講解加篇分析,對小白超級友好。雖然界仍在復(fù)蘇,但究并沒有放慢其熱的步伐,尤其在人工智能領(lǐng)域此外,今年人們 AI 倫理、偏見、治理和透明都有了新的重視人工智能和我們人腦的理解及其人工智能的聯(lián)系不斷發(fā)展,在不的將來,這些改我們生活質(zhì)量的用將大放光彩。名博主 Louis Bouchard 也在自己的博客中盤點了 2022 年 32 項(!)AI 技術(shù)突破。接下讓我們一起看看這些令人驚艷的究都有哪些吧!章地址:https://www.louisbouchard.ai/ 2022-ai-recap/LaMA:基于傅里葉卷積的分辨穩(wěn)健的大型掩碼復(fù)你肯定經(jīng)歷過種情況:你和你朋友拍了一張很的照片。結(jié)果,發(fā)現(xiàn)有人在你身,毀了你要發(fā)到友圈或者小紅書照片。但現(xiàn)在,不再是問題?;?傅里葉卷積的分率穩(wěn)健的大型掩修復(fù)方法,可以使用者輕松清除像中不需要的內(nèi)。不論是人,還垃圾桶都能輕松失。它就像是你袋里的專業(yè) ps 設(shè)計師,只需輕輕一按,就能輕清除。雖然看似單,但圖像修復(fù)許多 AI 研究人員長期以來一需要解決的問題論文鏈接:https://arxiv.org/ abs / 2109.07161項目地址:https://github.com/ saic-mdal / lamaColab Demo:https://colab.research.google.com/github/saic-mdal/lama/blob/master/colab/LaMa_inpainting.ipynb視頻講解:https://youtu.be/ Ia79AvGzveQ短篇分析:https://www.louisbouchard.ai/ lama/STIT:基于 GAN 的真實視頻人臉編輯你肯定有過樣的經(jīng)歷:在看影時,會發(fā)現(xiàn)電中的演員看起來比本人年輕得多《雙子殺手》中威爾?史密斯之,這需要專業(yè)人花費數(shù)百甚至數(shù)小時的工作,手編輯這些演員出的場景。但利用 AI,你可以在幾分鐘內(nèi)完成。事上,許多技術(shù)可讓你增加笑容,你看起來更年輕更老,所有這些是使用基于人工能的算法自動完的。它在視頻中稱為基于 AI 的面部操作(AI-based face manipulations),代表了 2022 年的最新技術(shù)水平。論文接:https://arxiv.org/ abs / 2201.08361項目地址:https://github.com/ rotemtzaban / STIT視頻講解:https://youtu.be/ mqItu9XoUgk短篇分析:https://www.louisbouchard.ai/ stitch-it-in-time/NeROIC:利用在線圖庫的神經(jīng)染神經(jīng)渲染可以過物體、人物或景的圖片,在空中生成逼真的 3D 模型。有了這項技術(shù),你只需有某物體的幾張片,就可以要求器了解這些圖片的物體,并模擬它在空間中的樣。通過圖像來理物體的物理形狀這對人類來說很易,因為我們了真實的世界。但于只能看到像素機器來說,這是個完全不同的挑。生成的模型如融入新場景?如照片的光照條件角度不同,生成模型也會因此變,該怎么辦?這都是 Snapchat 和南加州大學(xué)在這項新研中需要解決的問。論文鏈接:https://arxiv.org/ abs / 2201.02533項目地址:https://github.com/ snap-research / NeROIC視頻講解:https://youtu.be/ 88Pl9zD1Z78短篇分析:https://www.louisbouchard.ai/ neroic/SpeechPainter:文本條件下的語音修復(fù)對于圖來說,基于機器習(xí)的修復(fù)技術(shù)不可以移除其中的容,而且還能根背景信息填充圖的缺失部分。對視頻修復(fù)來說,挑戰(zhàn)在于不僅要持幀與幀之間的致性,而且要避生成錯誤的偽影同時,當(dāng)你成功將一個人從視頻「踢出去」之后還需要把他 / 她的聲音也一并除才行。為此,歌的研究人員提了一種全新的語修復(fù)方法,可以正視頻中的語法發(fā)音,甚至消除景噪音。論文鏈:https://arxiv.org/ abs / 2202.07273視頻講解:https://youtu.be/ zIIc4bRf5Hg短篇分析:https://www.louisbouchard.ai/ speech-inpainting-with-ai/GFP-GAN:利用生成性面部先驗,實現(xiàn)實世界的盲臉修你是否有一些珍的舊照片,因為代久遠(yuǎn)而畫質(zhì)模?不用擔(dān)心,有盲臉修復(fù)技術(shù)(Blind Face Restoration),你的回憶會被歷久新。這個全新且費的 AI 模型可以在一瞬間修你的大部分舊照。即使修復(fù)前的片畫質(zhì)非常低,也能很好地工作這在之前通常是個相當(dāng)大的挑戰(zhàn)更酷的是,你可按照自己喜歡的式進(jìn)行嘗試。他已經(jīng)開源了代碼創(chuàng)建了一個演示在線應(yīng)用程序供家試用。相信這技術(shù)一定讓你大一驚!論文鏈接https://arxiv.org/ abs / 2101.04061項目地址:https://github.com/ TencentARC / GFPGANColab Demo:https://colab.research.google.com/drive/1sVsoBd9AjckIXThgtZhGrHRfFI6UUYOo在線應(yīng)用:https://huggingface.co/ spaces / akhaliq / GFPGAN視頻講解:https://youtu.be/ nLDVtzcSeqM短篇分析:https://www.louisbouchard.ai/ gfp-gan/4D-Net:多模態(tài)對齊的學(xué)習(xí)自動駛汽車如何「眼六路」?你可能說過車企正在使的 LiDAR 傳感器或其他奇的相機。但它們如何工作的,它如何觀察這個世,以及它們與我相比究竟看到了么不同?論文鏈:https://arxiv.org/ abs / 2109.01066與特斯拉只使用攝像頭來解世界不同,大數(shù)自動駕駛汽車商,比如 Waymo,使用的是普通攝像頭和 3D LiDAR 傳感器。它們不會普通相機那樣生圖像,而是生成 3D 點云,利用 RGB 傳感信息,測量物體之的距離,計算它投射到物體的脈激光的傳播時間盡管如此,我們何有效地結(jié)合這信息并讓車輛理它?車輛最終會到什么?自動駕是否足夠安全?Waymo 和谷歌的一篇新研究論將會解答這些謎。視頻講解:https://youtu.be/ 0nJMnw1Ldks短篇分析:https://www.louisbouchard.ai/ waymo-lidar/Instant NeRF:基于多分辨率哈希碼的即時神經(jīng)圖如何通過照片模世界的樣子?使 AI 模型,人們可以將拍攝的像變成高質(zhì)量的 3D 模型。這項具有挑戰(zhàn)性的任,讓研究人員通 2D 圖像,創(chuàng)建物體或人在三世界中的樣子。過基于哈希編碼神經(jīng)圖元(graphical primitives),英偉達(dá)實現(xiàn) 5 秒訓(xùn)練 NeRF,并獲得了更好的效果。在到兩年的研究中將 NeRF 的訓(xùn)練速度提高了 1000 多倍。論文鏈接:https://arxiv.org/ abs / 2201.05989項目地址:https://github.com/ NVlabs / instant-ngp視頻講解:https://youtu.be/ UHQZBQOVAIU短篇分析:https://www.louisbouchard.ai/nvidia-photos-into-3d-scenes/DALL?E 2:基于 CLIP 特征的文本生成圖模型去年,OpenAI 發(fā)布了文本-圖像生成模型 DALL?E。現(xiàn)在,升級版 DALL?E 2 又來了。DALL?E 2 不僅可以從文本生成逼的圖像,其輸出分辨率是前者的倍!不過,性能面的提升好像不以令 OpenAI 滿足,為此他們還讓 DALL?E 2 學(xué)會了一項新技能:圖修復(fù)。也就是說你可以用 DALL?E 2 編輯圖像,或者添加何想要的新元素比如在背景中加一只火烈鳥。論鏈接:https://arxiv.org/ abs / 2204.06125視頻講解:https://youtu.be/ rdGVbPI42sA短篇分析:https://www.louisbouchard.ai/openais-new-model-dall-e-2-is-amazing/MyStyle:個性化生成先驗歌和特拉維夫大提出了一個非常大的 DeepFake 技術(shù)。擁有了它,你幾乎所不能。只需給個人拍上百張照,就可以對其圖進(jìn)行編碼,并修、編輯或創(chuàng)建出何想要的樣子。既令人驚奇又令恐懼,尤其是當(dāng)看到生成的結(jié)果。論文鏈接:https://arxiv.org/ abs / 2203.17272項目地址:https://mystyle-personalized-prior.github.io/視頻講解:https://youtu.be/ BNWAEvFfFvQ短篇分析:https://www.louisbouchard.ai/ mystyle/OPT:開放預(yù)訓(xùn)練的 Transformer 語言模型GPT-3 如此強大的原因,在于其架構(gòu)和小。它有 1750 億個參數(shù),是人類大腦中神經(jīng)數(shù)量的兩倍!如巨大的神經(jīng)網(wǎng)絡(luò)該模型幾乎學(xué)習(xí)整個互聯(lián)網(wǎng)的內(nèi),了解我們?nèi)绾?寫、交換和理解本。就在人們驚于 GPT-3 的強大功能時,Meta 向開源社區(qū)邁出了一大步他們發(fā)布了一個樣強大的模型,且,該模型已經(jīng)全開源了!該模不僅也有超過千級別的參數(shù),并,與 GPT-3 相比,OPT-175B 更加開放及便于訪問。文鏈接:https://arxiv.org/ abs / 2205.01068項目地址:https://github.com/ facebookresearch / metaseq視頻鏈接:https://youtu.be/ Ejg0OunCi9U短篇分析:https://www.louisbouchard.ai/ opt-meta/BlobGAN:空間離散的場景征對于如何描述個場景,Adobe 研究團隊給出了一個新的方法BlobGAN。BlobGAN 使用「斑點」(blob)來描述場景中的對象。研人員可以移動這斑點,將它們變、變小,甚至可刪除,這對圖像斑點所代表的物都會產(chǎn)生同樣的果。正如作者在們的結(jié)果中分享那樣,你可以通復(fù)制斑點,在數(shù)集中創(chuàng)建新的圖?,F(xiàn)在,BlobGAN 的代碼已經(jīng)開源,感興趣小伙伴,抓緊快手試試吧!論文接:https://arxiv.org/ abs / 2205.02837項目地址:https://github.com/ dave-epstein / blobgan視頻講解:https://youtu.be/ mnEzjpiA_4E短篇分析:https://www.louisbouchard.ai/ blobgan/Gato:通才智能體DeepMind 構(gòu)建了一個單一的「通用智能體 Gato??梢酝?Atari 游戲、做字幕圖像、與人聊、還能控制機械!更令人震驚的,它只訓(xùn)練一次使用相同的權(quán)重便能完成所有任。Gato 是一個多模態(tài)智能體這意味著它既可為圖像創(chuàng)建標(biāo)題也能作為聊天機人回答問題。雖 GPT-3 也能陪你聊天,但明顯,Gato 可以做到更多。竟,能聊天的 AI 常有,能陪玩游戲的不常有。文鏈接:https://arxiv.org/ abs / 2205.06175視頻講解:https://youtu.be/ xZKSWNv6Esc短篇分析:https://www.louisbouchard.ai/ deepmind-gato/Imagen:具有深度語言解的文本到圖像擴散模型如果你為 DALL?E 2 很優(yōu)秀,那么不妨看看這個自 Google Brain 的新模型 ——Imagen—— 可以做些什么。DALL?E 很神奇,但生成的圖像往缺乏真實感,就是谷歌團隊研的 Imagen 所要解決的問題。根據(jù)比較文本圖像模型的基準(zhǔn)Imagen 在大型語言模型的本嵌入對文本-圖像的合成方面成顯著。生成的圖既天馬行空,又實可信。論文鏈:https://arxiv.org/ abs / 2205.11487項目地址:https://imagen.research.google/視頻講解:https://youtu.be/ qhtYPhPWCsI短篇分析:https://www.louisbouchard.ai/ google-brain-imagen/DALL·E Mini一組小扎的驚悚圖曾在 Twitter 上風(fēng)靡一陣。這組 San 值狂掉的作品,出自 DALL?E mini 之手。作為 DALL?E 家族的「青春版」DALL?E mini 是勝在免費開源。代碼已,下一個被魔改人物又會是誰呢項目地址:https://github.com/ borisdayma / dalle-mini在線體驗:https://huggingface.co/ spaces / dalle-mini / dalle-mini視頻講解:https://youtu.be/ K3bZXXjW788短篇分析:https://www.louisbouchard.ai/ dalle-mini/NLLB:不落下任何一種語言Meta AI 發(fā)布的這款 NLLB-200 模型,模型命名理念來自「不下任何一種語言(No Language Left Behind),在 200 多種語言上實現(xiàn)任意互譯。研究亮點在于:研究讓大多數(shù)低資源言訓(xùn)練提升多個量級,同時實現(xiàn) 200 + 語言翻譯的 SOTA 結(jié)果。論文鏈接:https://research.facebook.com/ publications / no-language-left-behind/項目地址:https://github.com/ facebookresearch / fairseq / tree / nllb在線體驗:https://nllb.metademolab.com/視頻講解:https://youtu.be/ 2G4NeG17Eis短篇分析:https://www.louisbouchard.ai/ no-language-left-behind/Dual-Shutter 光學(xué)振動傳感系統(tǒng)聲音能被看見?這篇得 CVPR 2022 最佳論文榮譽獎的研究,出了一種新穎的 Dual-Shutter 方法,通過使用「慢速相機(130FPS)同時檢測多個場景源的高速(達(dá) 63kHz)表面振動,并通捕獲由音頻源引的振動來實現(xiàn)。此便可以實現(xiàn)樂的分離、噪音的除等各種需求。文鏈接:https://openaccess.thecvf.com/ content / CVPR2022 / papers / Sheinin_Dual-Shutter_Optical_Vibration_Sensing_CVPR_2022_paper.pdf項目地址:https://imaging.cs.cmu.edu/ vibration/視頻講解:https://youtu.be/ n1M8ZVspJcs短篇分析:https://www.louisbouchard.ai/ cvpr-2022-best-paper/Make-A-Scene:基于場景且有人類先驗文本到圖像生成Make-A-Scene 不僅僅是「另一個 DALL?E」。雖然 DALL?E 可以根據(jù)文本提示成隨機圖像,這實很酷,但同時限制了用戶對生結(jié)果的控制。而 Meta 的目標(biāo)是推動創(chuàng)意表達(dá)將這種文本到圖的趨勢與之前的圖到圖像模型相合,從而產(chǎn)生「Make-A-Scene」:文本和草圖條件圖像生之間的奇妙融合論文鏈接:https://arxiv.org/ abs / 2203.13131視頻講解:https://youtu.be/ K3bZXXjW788短篇分析:https://www.louisbouchard.ai/ make-a-scene/BANMo:從任意視頻中構(gòu)目標(biāo) 3D 動畫模型基于 Meta 的這項研究,你只需給定捕獲變形對象的任意頻,比如上傳幾小貓小狗的視頻BANMo 便可通過將來自數(shù)千圖像的 2D 線索整合到規(guī)范空中,進(jìn)而重建一可編輯的動畫 3D 模型,且無需預(yù)定義形狀模板論文鏈接:https://arxiv.org/ abs / 2112.12761項目地址:https://github.com/ facebookresearch / banmo視頻講解:https://youtu.be/ jDTy-liFoCQ短篇分析:https://www.louisbouchard.ai/ banmo/用潛在擴散模型進(jìn)行高分率圖像合成今年火的圖像生成模 DALL?E、Imagen 以及強勢出圈的 Stable Diffusion,這些強大的圖像成模型有什么共點?除了高計算本、大量訓(xùn)練時之外,它們都基相同的擴散機制擴散模型最近在多數(shù)圖像任務(wù)中得了 SOTA 結(jié)果,包括使用 DALL?E 的文本到圖像,還許多其他與圖像成相關(guān)的任務(wù),圖像修復(fù)、風(fēng)格換或圖像超分辨。論文鏈接:https://arxiv.org/ abs / 2112.10752項目地址:https://github.com/ CompVis / latent-diffusion視頻講解:https://youtu.be/ RGBNdD3Wn-g短篇分析:https://www.louisbouchard.ai/ latent-diffusion-models/PSG:基于場景的圖像生成模AI 可以幫你準(zhǔn)確識別圖像中的體,但是理解物與環(huán)境之間的關(guān)則沒有那么輕松為此,來自南洋工對研究人員提了一種基于全景割的全場景圖生(panoptic scene graph generation,即 PSG)任務(wù)。相比于傳統(tǒng)于檢測框的場景生成,PSG 任務(wù)要求全面地輸圖像中的所有關(guān)(包括物體與物間關(guān)系,物體與景間關(guān)系,背景背景間關(guān)系),用準(zhǔn)確的分割塊定位物體。論文接:https://arxiv.org/ abs / 2207.11247項目地址:https://psgdataset.org/在線應(yīng)用:https://huggingface.co/ spaces / ECCV2022 / PSG視頻講解:https://youtu.be/ cSsE_H_0Cr8短篇分析:https://www.louisbouchard.ai/ psg/利用文本反轉(zhuǎn)實現(xiàn)文到圖像的個性化成今年各大廠的像生成模型可謂八仙過海各顯神,但是如何讓模生成特定風(fēng)格的像作品呢?來自拉維夫大學(xué)的學(xué)和英偉達(dá)合作推了一款個性化圖生成模型,可以 DIY 你想要得到的圖像。論文接:https://arxiv.org/ abs / 2208.01618項目地址:https://textual-inversion.github.io/視頻講解:https://youtu.be/ f3oXa7_SYek短篇分析:https://www.louisbouchard.ai/ imageworthoneword/用于通用視頻識別的語圖像預(yù)訓(xùn)練模型覺文本模型的學(xué)毫無疑問已經(jīng)取了巨大成功,然如何將這種新的言圖像預(yù)訓(xùn)練方擴展到視頻領(lǐng)域然是一個懸而未的問題。來自微和中科院的學(xué)者出了一種簡單而效的方法使預(yù)訓(xùn)的語言圖像模型接適應(yīng)視頻識別而不是從頭開始訓(xùn)練新模型。論鏈接:https://arxiv.org/ abs / 2208.02816項目地址:https://github.com/ microsoft / VideoX / tree / master / X-CLIP視頻講解:https://youtu.be/ seb4lmVPEe8短篇分析:https://www.louisbouchard.ai/ general-video-recognition/Make-A-Video:一鍵文本生成視頻模畫家在畫布上盡作畫,如此清晰暢的畫面,你能到視頻的每一幀是 AI 生成的嗎?MetaAI 推出的 Make-A-Video,只需簡單輸入幾個文字,便可幾秒內(nèi)生成不同格的視頻,說成視頻版 DALL?E」也不為過。論文鏈接:https://arxiv.org/ abs / 2209.14792視頻講解:https://youtu.be/ MWwESVyHWto短篇分析:https://www.louisbouchard.ai/ make-a-video/Whisper:大規(guī)模弱監(jiān)督語音識別模型你沒有想過有一個譯軟件可以快速譯視頻中的語音甚至是那些你自都聽不懂的語言OpenAI 開源的 Whisper 恰好就能做到這一點。Whisper 在超過 68 萬小時的多語種數(shù)據(jù)上訓(xùn),能識別嘈雜背下的多語種聲音轉(zhuǎn)化為文字,此還可勝任專業(yè)術(shù)的翻譯。論文鏈:https://arxiv.org/ abs / 2212.04356項目地址:https://github.com/ openai / whisper視頻講解:https://youtu.be/ uFOkMme19Zs短篇解析:https://www.louisbouchard.ai/ whisper/DreamFusion:用 2D 圖像生成 3D 模型文本能生成圖像、視頻還有 3D 模型~谷歌推出的 DreamFusion 通過使用預(yù)訓(xùn)練的 2D 文本到圖像擴散模可一鍵生成 3D 模型,在數(shù)十億圖像文本對上訓(xùn)的擴散模型推動文本到 3D 模型合成的最新突。論文鏈接:https://arxiv.org/ abs / 2209.14988視頻講解:https://youtu.be/ epuU0VRIcjE短篇解析:https://www.louisbouchard.ai/ dreamfusion/Imagic:基于擴散模型真實圖像編輯方使用 DALL?E 等文本圖像生成模型,只需輸一行文字便能得想要的圖片,但 AI 生成的圖像有時候并不那么美。來自谷歌、色列理工學(xué)院、茨曼科學(xué)研究所研究者介紹了一基于擴散模型的實圖像編輯方法 ——Imagic,只用文字就能現(xiàn)真實照片的 PS。例如,我們可以改變一個人的勢和構(gòu)圖同時保其原始特征,或我想讓一只站立狗坐下,讓一只展開翅膀。論文接:https://arxiv.org/ abs / 2210.09276項目地址:https://imagic-editing.github.io/視頻講解:https://youtu.be/ gbpPQ5kVJhM短篇分析:https://www.louisbouchard.ai/ imagic/eDiffi:更高品質(zhì)的文本圖像成模型比 DALL?E 和 Stable Diffusion 更強的圖像合成模來了!這就是英達(dá)的 eDiffi,它可以更準(zhǔn)確地生成更高品質(zhì)圖像,此外加入筆模具,可以為的作品增加更多造性和靈活性。文鏈接:https://arxiv.org/ abs / 2211.01324項目地址:https://deepimagination.cc/ eDiff-I/視頻講解:https://youtu.be/ grwp-ht_ixo短篇分析:https://www.louisbouchard.ai/ ediffi/Infinite Nature:從單幅圖像中學(xué)習(xí)自然場的無限視圖生成有沒有想過,隨拍一張照片然后像打開一扇門一飛進(jìn)圖片里呢?自谷歌和康奈爾學(xué)的學(xué)者將這一象變?yōu)榱爽F(xiàn)實,就是 InfiniteNature-Zero,他可從單幅圖像中成無限制的自然景視圖。論文鏈:https://arxiv.org/ abs / 2207.11148項目地址:https://infinite-nature.github.io/視頻講解:https://youtu.be/ FQzGhukV-l0短篇分析:https://www.louisbouchard.ai/ infinitenature-zeroGalactica:用于科學(xué)的大語言模型Meta 開發(fā)的 Galactica 是一種大型語言模型,其大小 GPT-3 相當(dāng),但它擅長的域是科學(xué)知識。模型可編寫政府皮書、新聞評論維基百科頁面和碼,它還知道如引用以及如何編方程式。這對人智能和科學(xué)來說一件大事。論文接:https://arxiv.org/ abs / 2211.09085視頻講解:https://youtu.be/ 2GfxkCWWzLU短篇分析:https://www.louisbouchard.ai/ galactica/RAD-NeRF:基于音頻空間分解的實人像合成模型自 DeepFake 和 NeRF 的出現(xiàn),AI 換臉?biāo)坪跻呀?jīng)是空見慣了,但有問題,AI 換的臉有時會因為對上嘴型而露餡。RAD-NeRF 的出現(xiàn)可以解決一問題,它可以視頻中所出現(xiàn)的話者進(jìn)行實時的像合成,此外還持自定義頭像。文鏈接:https://arxiv.org/ abs / 2211.12368項目地址:https://me.kiui.moe/ radnerf/ChatGPT:為對話優(yōu)化的言模型2022 年度 AI 的重磅作品怎么能少 ChatGPT,這個已經(jīng)火遍網(wǎng)并已經(jīng)被網(wǎng)友發(fā)出寫小黃文、代碼等各種應(yīng)用萬能模型,如果還不了解它,那快來看看!視頻解:https://youtu.be/ AsFgn8vU-tQ短篇分析:https://www.louisbouchard.ai/ chatgpt/可直接用于生產(chǎn)使用的視頻人 re-aging雖然當(dāng)下計算機視覺模型可以對臉的年齡進(jìn)行生、風(fēng)格遷移等,這也只是看起來酷,在實際應(yīng)用卻幾乎零作用,有的技術(shù)通常存著面部特征丟失分辨率低和在后視頻幀中結(jié)果不定的問題,往往要人工二次編輯最近迪士尼發(fā)布第一個可實用的完全自動化的、用于生產(chǎn)使用的頻圖像中 re-age 人臉的方法 FRAN(Face Re-Aging Network),正式宣告電影中靠化師改變演員年齡覺效果的技術(shù)落。論文鏈接:https://dl.acm.org/ doi / pdf / 10.1145/3550454.3555520項目地址:https://studios.disneyresearch.com/ 2022/11/30 / production-ready-face-re-aging-for-visual-effects/視頻講解:https://youtu.be/ WC03N0NFfwk短篇分析:https://www.louisbouchard.ai/ disney-re-age/參考資料:https://www.louisbouchard.ai/2022-ai-recap/本文來自微信公號:新智元 (ID:AI_era?
  • 游客73023b5e09 9天前
    IT之家 3 月 9 日消息,今日凌晨,蘋果發(fā)布了全新?Mac Studio,最高搭載 20 核心的 M1 Ultra 處理器,一些性能指標(biāo)已經(jīng)超過了英特爾處理器版 Mac Pro 工作站。然而,在發(fā)布會的最后,蘋果鄭宣告新款?Mac Pro 即將發(fā)布??梢灶A(yù)見,蘋果新款 Mac Pro 的性能又將與?Mac Studio 拉開距離。那么,新一代蘋果頂流于何時到來呢?目前來看幾乎經(jīng)可以確認(rèn)會定在每年 6 月左右的 WWDC 上?!?英特爾版本 Mac?ProIT之家了解到,老款的 Mac Pro 均搭載英特爾處理器,最高可選 28 核的至強 W 處理器,內(nèi)存可選 1.5TB,顯卡可選 AMD? Radeon 系列加速卡,SSD 可選 8TB,頂配接近 40 萬元人民幣,不可謂不夸張。相比之下,Mac Studio 雖然通過新架構(gòu)在 CPU /GPU 的部分性能方面超過了老款 Mac Pro,但內(nèi)存容量方面,128GB 還是難與 1.5TB 相抗衡。采用 Arm 芯片的?Mac Pro 將采用怎樣的配置令人期待。WWDC 是每年定期由蘋果在美國舉行景山全球開者大會,也就是蘋果全球開發(fā)大會。大會主要的目的是讓蘋公司向研發(fā)者們展示最新的軟和技術(shù),偶爾也會發(fā)布新款機。在每一屆的 WWDC 上,蘋果往往會選擇公布下一代的作系統(tǒng)(iOS、iPadOS、MacOS...)。雖然前些年一直是英特爾(Intel)處理器的主場,但自從蘋果 2020 年推出初代 Apple Silicon 之后,蘋果全系 Mac 幾乎都已換用了自研芯片。不女丑猜出,果下一代生產(chǎn)力巨作將會在幾月之后伴隨新一代 MacOS 發(fā)布。先整理下 2022 年 Mac 產(chǎn)品線預(yù)測的產(chǎn)品和發(fā)布的時間:春季發(fā)布會最的預(yù)測是高端 iMac(Pro)和 Mac mini,然而最后這兩位變成?Mac Studio+Studio?Display 了。WWDC:MacBook(Air)、Mac Pro秋季發(fā)布會:入門級 MacBook Pro隨著一系列新 Mac 機型的推出,Apple Silicon 完全轉(zhuǎn)型有望在今年看到成效啟上個月,馬克?古爾曼對年的蘋果 Mac 產(chǎn)品線進(jìn)行了預(yù)測,他對于今年的產(chǎn)品十看好,他認(rèn)為 2022 年將有大約七款搭載 Apple Silicon 的 Mac 系列產(chǎn)品。他之前預(yù)測稱,蘋將在 3 月 8 日舉辦一場發(fā)布會,該活動預(yù)計至少會發(fā)第三代?iPhone?SE?和第五代?iPad Air。目前沒有跡象表明新版 MacBook Air 或 Mac Pro 將于下個月發(fā)售,因此 Mac mini 是最有可能的結(jié)果。然后蘋果預(yù)計還在 5 月或 6 月進(jìn)行另一場 Mac 產(chǎn)品發(fā)布會。Gurman 表示,蘋果今年的新品將由以下處理器提供動超山:新的 M2 芯片已有的 M1 Pro 和 M1 Max 芯片M1 Max 的加倍版芯片(也就是?M1 Ultra)隨著全新的?Mac Studio 的到來,?M1 Ultra 已經(jīng)露出水面,但很可惜這不是玩家最期待的 M2。而且,這些處理器將如何分布 Mac 系列中呢?Gurman 預(yù)計,2022 年至少有七臺新的 Mac 將會采用 Apple Silicon:配備 M2 芯片的 13 英寸 MacBook Pro,旨在接任 2020 版,定位低于 14 英寸和 16 英寸 MacBook Pro搭載 M1 系列和 M2 系列的 Mac mini配備 M2 芯片的 24 英寸 iMac經(jīng)過重新設(shè)計的 M2 芯片版 MacBook Air配備 M1 Pro 和 M1 Max 芯片的大屏版 iMac Pro首款采用 Apple Silicon 的 Mac Pro(這里的芯片相當(dāng)于兩個或四個 M1 Max 芯片組合而成)以此來看傳說中巫抵 M2 芯片最快會在年中到來,而首發(fā)機型無外乎 MacBook Pro、MacBook Air、Mac mini、iMac、iMac Pro 這幾款,但既然 Mac Pro 只是采用了類似于 M1 Ultra 的芯片,那么 Mac Pro 就必然會是最先到來的那個。Gurman?認(rèn)為,第二輪 Mac 發(fā)布會主要內(nèi)容可能會集中在新 iMac Pro 以及搭載“M1 超級版(可能是 M1 Ultra 也可能是再翻倍的 M1 Ultra)”的新 Mac Pro 上,那么我們可以期待什么呢?M2 的 CPU 可能會比 M1 強一點,但芯片應(yīng)該依然采用相同八核架構(gòu)。不過,GPU 可能會從 7 個或 8 個內(nèi)核提升到 9 個或 10 個內(nèi)核。Mac Pro 芯片將有兩種主要版本:一種是 M1 Max 的兩倍(M1 Ultra),另一種是四倍(M1 Ultra×2)。在第一個芯片上可以看到 20 個 CPU 核心和 64 個 GPU 核心,在第二個芯片上則是 40 個 CPU 核心和 128 個 GPU 核心。我們不妨大膽猜測一下,蘋果 Mac Pro 2022 款將會提供兩種主要版本,類似 MacBook Pro 的 M1 Max 版和 M1 Pro 版,用戶可選擇任一型號進(jìn)行制,而?Mac Pro 2022 基礎(chǔ)版是現(xiàn)有的 M1 Ultra,性能持平 Mac Studio;而另一款則是再次加倍的 M1 Ultra,性能卓越的蘋果 Mac Studio 很可能會被再一次超越。值得一提法家是,Gurman 也曾表示,根據(jù)他目前看到的 Apple Silicon 路線圖,預(yù)計“M2 的 Pro 和 Max 版本”將與第一款 M3 一起在 2023 年推出,屆時新一代 Mac 系列又會有怎樣的精彩呢?我們不妨拭?魚以待吧!document.write(""+"ipt>");document.getElementById("vote2103").innerHTML = voteStr;

      <code id='b6b49'></code><style id='8ca18'></style>
    • <acronym id='1b583'></acronym>
      <center id='0f4a4'><center id='fd570'><tfoot id='9e08d'></tfoot></center><abbr id='8a018'><dir id='0c5d2'><tfoot id='5ab8a'></tfoot><noframes id='ee186'>

    • <optgroup id='ba90c'><strike id='9dff2'><sup id='614e8'></sup></strike><code id='87cc6'></code></optgroup>
        1. <b id='e8670'><label id='a0ae6'><select id='9abfb'><dt id='30290'><span id='ec0a1'></span></dt></select></label></b><u id='8bd62'></u>
          <i id='bf673'><strike id='bf7c3'><tt id='8b920'><pre id='33bf8'></pre></tt></strike></i>