電視劇 marissa mayer
  • 提醒:不要輕易相信視頻中的廣告,謹防上當受騙!
  • 如果無法播放請重新刷新頁面,或者切換線路。
  • 視頻載入速度跟網(wǎng)速有關(guān),請耐心等待幾秒鐘。
簡介

marissa mayer 第01集6.0
6.0
網(wǎng)友評分
  • 很差
  • 較差
  • 還行
  • 推薦
  • 力薦
709次評分
給影片打分 《marissa mayer》
  • 很差
  • 較差
  • 還行
  • 推薦
  • 力薦
我也要給影片打分

  • 關(guān)注公眾號觀影不迷路

  • 掃一掃用手機訪問

影片信息

  • marissa mayer

  • 片名:marissa mayer
  • 狀態(tài):更新至33集
  • 主演:池秀媛/
  • 導(dǎo)演:瀨瀨敬久/
  • 年份:2019
  • 地區(qū):圣克里斯多福及尼維斯
  • 類型:諜戰(zhàn)/
  • 時長:1:58:42
  • 上映:2023
  • 語言:文萊語
  • 更新:
  • 簡介:IT之家 7 月 20 日消息,此前魅族科技開設(shè)了魅 19 主理人計劃,由用戶對新產(chǎn)品設(shè)計進行討論,例快充方案、“質(zhì)感與“手感的平衡等”,從魅族的說法看,新旗艦至少是 5000mAh 電池 + 65W 以上的快充。今天,族方面再次開始 19 主理人探討:你更傾向于增強外放 or 藍牙音頻體驗?從目前魅族社區(qū)眾網(wǎng)友的投票來看大部分人更喜歡優(yōu)的藍牙音頻體驗,中大約 16.6% 的用戶選擇了“優(yōu)秀雙揚聲器 + 更好效果的藍牙音頻驗”,大約 83.3% 的用戶選擇了“優(yōu)秀藍牙音頻 + 更澎湃的雙揚聲器體驗”。document.write(""+"ipt>");document.getElementById("vote2114").innerHTML = voteStr;7 月 4 日,湖北星紀時代科技有公司與珠海市魅族技有限公司在杭州行戰(zhàn)略投資簽約儀,正式宣布星紀時持有魅族科技 79.09% 的控股權(quán),并取得對魅族科的單獨控制。星紀代副董事長沈子瑜時擔(dān)任魅族科技董長。沈子瑜彼時表,魅族將保留獨立隊,明年發(fā)布新旗。另據(jù)數(shù)碼博主?@數(shù)碼閑聊站 爆料,魅族快充將獲得大提升。魅族 19 的儲備方案中已經(jīng)百瓦大電池方案。體來說,魅族正專于 MTW 多極耳雙電荷泵雙電芯閃方案?
首頁 穿越 marissa mayer

猜你喜歡

為你推薦

 換一換

評論

共 34573 條評論
還可以輸入200
  • 游客00debb6f1b 剛剛
    IT之家 1 月 8 日消息,在過去十年中,PC 游戲一直在穩(wěn)步增長,事實證明,Steam 是玩家首選的 PC 平臺。幾個月前,Steam 創(chuàng)造了一個新的紀錄,同時在靈山人數(shù)達到近 3200 萬的歷史新高,現(xiàn)在這個記錄已經(jīng)被屏蓬破。根據(jù) Steam 官方最新數(shù)據(jù),Steam 的同時在線人數(shù)再次創(chuàng)下新高,達到了 3216 萬 2987 人,不僅如此,正在游戲中的人數(shù)畢文突破 1000 萬。Steam 的受歡迎程度是不可否認的,而且是有原因的,該平臺允周易戶以比競爭對手低很多的價格購游戲。Steam 還提供了出色的退款政策。如果游戲玩了不到 2 小時,用戶可以在 14 天內(nèi)對購買的游戲進行退款。IT之家了解到,Steam 也是許多大型免費游戲的所在地獨山如《CS:GO》與《Dota2》,這兩款游戲也是目前 Steam 在線人數(shù)最多的兩款游戲,《鵝鴨》排在第三?
  • 游客e748c15508 41秒前
    IT之家 1 月 1 日消息,2022 年已經(jīng)過去,今天是 2023 年的第一天。據(jù)新華社報道,天科普專家介紹,公歷 2023 年為平年,2 月有 28 天,全年共有 365 天。即將到來的農(nóng)歷癸兔年為閏年,全年共 384 天。據(jù)中國天文學(xué)會會員、天津天文學(xué)會理事趙之珩紹,公歷和農(nóng)歷各有同的歷史淵源和歷法制。公歷每 4 年設(shè)一閏年。通常情況下凡公歷年數(shù)能被 4 除盡的年份為閏年,2 月有 29 天;除不盡的年份為平年,2 月有 28 天。2023 年不能被 4 除盡,所以是平年,共有 365 天。農(nóng)歷是以月亮圓缺變化周期為依據(jù),一個朔月為一個月,約 29.53 天,全年一般是 354 天或 355 天,比公歷年(也稱回歸年、太陽年的 365 天或 366 天少了 11 天。為了使農(nóng)歷年的度和公歷年的長度接,古人采用增加閏月方法,即在 19 個農(nóng)歷年中加入 7 個閏月;有閏月的那一有 13 個月,全年一般是 384 天或 385 天,叫作閏年。這樣一來,19 個農(nóng)歷年和 19 個公歷年的長度幾乎相。至于閏月具體安置哪一個月,這和二十節(jié)氣的“中氣”有關(guān)二十四節(jié)氣由 12 個節(jié)氣和 12 個中氣組成,月首叫“節(jié)”,月中叫“中氣”兩者相間排列。加閏的規(guī)則是每個月中,含有中氣的算正常月,不含中氣的就算上個月的閏月。農(nóng)歷癸兔年的“閏二月”沒中氣,所以就是上一月二月的閏月。由于安排了一個“閏二月,農(nóng)歷癸卯兔年全年有 384 天,從 2023 年 1 月 22 日開始,至 2024 年 2 月 9 日結(jié)束。值得一提的是,農(nóng)歷癸石山兔天數(shù)較多,還使得這農(nóng)歷年出現(xiàn)了兩個立的歷法現(xiàn)象,即“一兩頭春”,也稱“雙年”。統(tǒng)計發(fā)現(xiàn),19 個農(nóng)歷年中有 7 個年頭是“雙春年”有 7 個年頭是“無春年”,其末山的 5 個年頭是正常的“單年”?
  • 游客22764ec15a 52秒前
    2022 超全的 AI 圈研究合集在這!知名博 Louis Bouchard 自制視頻講解加篇分析,對小白超級友好。雖然界仍在復(fù)蘇,但究并沒有放慢其熱的步伐,尤其在人工智能領(lǐng)域此外,今年人們 AI 倫理、偏見、治理和透明都有了新的重視人工智能和我們人腦的理解及其人工智能的聯(lián)系不斷發(fā)展,在不的將來,這些改我們生活質(zhì)量的用將大放光彩。名博主 Louis Bouchard 也在自己的博客中盤點了 2022 年 32 項(!)AI 技術(shù)突破。接下讓我們一起看看這些令人驚艷的究都有哪些吧!章地址:https://www.louisbouchard.ai/ 2022-ai-recap/LaMA:基于傅里葉卷積的分辨穩(wěn)健的大型掩碼復(fù)你肯定經(jīng)歷過種情況:你和你朋友拍了一張很的照片。結(jié)果,發(fā)現(xiàn)有人在你身,毀了你要發(fā)到友圈或者小紅書照片。但現(xiàn)在,不再是問題?;?傅里葉卷積的分率穩(wěn)健的大型掩修復(fù)方法,可以使用者輕松清除像中不需要的內(nèi)。不論是人,還垃圾桶都能輕松失。它就像是你袋里的專業(yè) ps 設(shè)計師,只需輕輕一按,就能輕清除。雖然看似單,但圖像修復(fù)許多 AI 研究人員長期以來一需要解決的問題論文鏈接:https://arxiv.org/ abs / 2109.07161項目地址:https://github.com/ saic-mdal / lamaColab Demo:https://colab.research.google.com/github/saic-mdal/lama/blob/master/colab/LaMa_inpainting.ipynb視頻講解:https://youtu.be/ Ia79AvGzveQ短篇分析:https://www.louisbouchard.ai/ lama/STIT:基于 GAN 的真實視頻人臉編輯你肯定有過樣的經(jīng)歷:在看影時,會發(fā)現(xiàn)電中的演員看起來比本人年輕得多《雙子殺手》中威爾?史密斯之,這需要專業(yè)人花費數(shù)百甚至數(shù)小時的工作,手編輯這些演員出的場景。但利用 AI,你可以在幾分鐘內(nèi)完成。事上,許多技術(shù)可讓你增加笑容,你看起來更年輕更老,所有這些是使用基于人工能的算法自動完的。它在視頻中稱為基于 AI 的面部操作(AI-based face manipulations),代表了 2022 年的最新技術(shù)水平。論文接:https://arxiv.org/ abs / 2201.08361項目地址:https://github.com/ rotemtzaban / STIT視頻講解:https://youtu.be/ mqItu9XoUgk短篇分析:https://www.louisbouchard.ai/ stitch-it-in-time/NeROIC:利用在線圖庫的神經(jīng)染神經(jīng)渲染可以過物體、人物或景的圖片,在空中生成逼真的 3D 模型。有了這項技術(shù),你只需有某物體的幾張片,就可以要求器了解這些圖片的物體,并模擬它在空間中的樣。通過圖像來理物體的物理形狀這對人類來說很易,因為我們了真實的世界。但于只能看到像素機器來說,這是個完全不同的挑。生成的模型如融入新場景?如照片的光照條件角度不同,生成模型也會因此變,該怎么辦?這都是 Snapchat 和南加州大學(xué)在這項新研中需要解決的問。論文鏈接:https://arxiv.org/ abs / 2201.02533項目地址:https://github.com/ snap-research / NeROIC視頻講解:https://youtu.be/ 88Pl9zD1Z78短篇分析:https://www.louisbouchard.ai/ neroic/SpeechPainter:文本條件下的語音修復(fù)對于圖來說,基于機器習(xí)的修復(fù)技術(shù)不可以移除其中的容,而且還能根背景信息填充圖的缺失部分。對視頻修復(fù)來說,挑戰(zhàn)在于不僅要持幀與幀之間的致性,而且要避生成錯誤的偽影同時,當你成功將一個人從視頻「踢出去」之后還需要把他 / 她的聲音也一并除才行。為此,歌的研究人員提了一種全新的語修復(fù)方法,可以正視頻中的語法發(fā)音,甚至消除景噪音。論文鏈:https://arxiv.org/ abs / 2202.07273視頻講解:https://youtu.be/ zIIc4bRf5Hg短篇分析:https://www.louisbouchard.ai/ speech-inpainting-with-ai/GFP-GAN:利用生成性面部先驗,實現(xiàn)實世界的盲臉修你是否有一些珍的舊照片,因為代久遠而畫質(zhì)模?不用擔(dān)心,有盲臉修復(fù)技術(shù)(Blind Face Restoration),你的回憶會被歷久新。這個全新且費的 AI 模型可以在一瞬間修你的大部分舊照。即使修復(fù)前的片畫質(zhì)非常低,也能很好地工作這在之前通常是個相當大的挑戰(zhàn)更酷的是,你可按照自己喜歡的式進行嘗試。他已經(jīng)開源了代碼創(chuàng)建了一個演示在線應(yīng)用程序供家試用。相信這技術(shù)一定讓你大一驚!論文鏈接https://arxiv.org/ abs / 2101.04061項目地址:https://github.com/ TencentARC / GFPGANColab Demo:https://colab.research.google.com/drive/1sVsoBd9AjckIXThgtZhGrHRfFI6UUYOo在線應(yīng)用:https://huggingface.co/ spaces / akhaliq / GFPGAN視頻講解:https://youtu.be/ nLDVtzcSeqM短篇分析:https://www.louisbouchard.ai/ gfp-gan/4D-Net:多模態(tài)對齊的學(xué)習(xí)自動駛汽車如何「眼六路」?你可能說過車企正在使的 LiDAR 傳感器或其他奇的相機。但它們如何工作的,它如何觀察這個世,以及它們與我相比究竟看到了么不同?論文鏈:https://arxiv.org/ abs / 2109.01066與特斯拉只使用攝像頭來解世界不同,大數(shù)自動駕駛汽車商,比如 Waymo,使用的是普通攝像頭和 3D LiDAR 傳感器。它們不會普通相機那樣生圖像,而是生成 3D 點云,利用 RGB 傳感信息,測量物體之的距離,計算它投射到物體的脈激光的傳播時間盡管如此,我們何有效地結(jié)合這信息并讓車輛理它?車輛最終會到什么?自動駕是否足夠安全?Waymo 和谷歌的一篇新研究論將會解答這些謎。視頻講解:https://youtu.be/ 0nJMnw1Ldks短篇分析:https://www.louisbouchard.ai/ waymo-lidar/Instant NeRF:基于多分辨率哈希碼的即時神經(jīng)圖如何通過照片模世界的樣子?使 AI 模型,人們可以將拍攝的像變成高質(zhì)量的 3D 模型。這項具有挑戰(zhàn)性的任,讓研究人員通 2D 圖像,創(chuàng)建物體或人在三世界中的樣子。過基于哈希編碼神經(jīng)圖元(graphical primitives),英偉達實現(xiàn) 5 秒訓(xùn)練 NeRF,并獲得了更好的效果。在到兩年的研究中將 NeRF 的訓(xùn)練速度提高了 1000 多倍。論文鏈接:https://arxiv.org/ abs / 2201.05989項目地址:https://github.com/ NVlabs / instant-ngp視頻講解:https://youtu.be/ UHQZBQOVAIU短篇分析:https://www.louisbouchard.ai/nvidia-photos-into-3d-scenes/DALL?E 2:基于 CLIP 特征的文本生成圖模型去年,OpenAI 發(fā)布了文本-圖像生成模型 DALL?E?,F(xiàn)在,升級版 DALL?E 2 又來了。DALL?E 2 不僅可以從文本生成逼的圖像,其輸出分辨率是前者的倍!不過,性能面的提升好像不以令 OpenAI 滿足,為此他們還讓 DALL?E 2 學(xué)會了一項新技能:圖修復(fù)。也就是說你可以用 DALL?E 2 編輯圖像,或者添加何想要的新元素比如在背景中加一只火烈鳥。論鏈接:https://arxiv.org/ abs / 2204.06125視頻講解:https://youtu.be/ rdGVbPI42sA短篇分析:https://www.louisbouchard.ai/openais-new-model-dall-e-2-is-amazing/MyStyle:個性化生成先驗歌和特拉維夫大提出了一個非常大的 DeepFake 技術(shù)。擁有了它,你幾乎所不能。只需給個人拍上百張照,就可以對其圖進行編碼,并修、編輯或創(chuàng)建出何想要的樣子。既令人驚奇又令恐懼,尤其是當看到生成的結(jié)果。論文鏈接:https://arxiv.org/ abs / 2203.17272項目地址:https://mystyle-personalized-prior.github.io/視頻講解:https://youtu.be/ BNWAEvFfFvQ短篇分析:https://www.louisbouchard.ai/ mystyle/OPT:開放預(yù)訓(xùn)練的 Transformer 語言模型GPT-3 如此強大的原因,在于其架構(gòu)和小。它有 1750 億個參數(shù),是人類大腦中神經(jīng)數(shù)量的兩倍!如巨大的神經(jīng)網(wǎng)絡(luò)該模型幾乎學(xué)習(xí)整個互聯(lián)網(wǎng)的內(nèi),了解我們?nèi)绾?寫、交換和理解本。就在人們驚于 GPT-3 的強大功能時,Meta 向開源社區(qū)邁出了一大步他們發(fā)布了一個樣強大的模型,且,該模型已經(jīng)全開源了!該模不僅也有超過千級別的參數(shù),并,與 GPT-3 相比,OPT-175B 更加開放及便于訪問。文鏈接:https://arxiv.org/ abs / 2205.01068項目地址:https://github.com/ facebookresearch / metaseq視頻鏈接:https://youtu.be/ Ejg0OunCi9U短篇分析:https://www.louisbouchard.ai/ opt-meta/BlobGAN:空間離散的場景征對于如何描述個場景,Adobe 研究團隊給出了一個新的方法BlobGAN。BlobGAN 使用「斑點」(blob)來描述場景中的對象。研人員可以移動這斑點,將它們變、變小,甚至可刪除,這對圖像斑點所代表的物都會產(chǎn)生同樣的果。正如作者在們的結(jié)果中分享那樣,你可以通復(fù)制斑點,在數(shù)集中創(chuàng)建新的圖?,F(xiàn)在,BlobGAN 的代碼已經(jīng)開源,感興趣小伙伴,抓緊快手試試吧!論文接:https://arxiv.org/ abs / 2205.02837項目地址:https://github.com/ dave-epstein / blobgan視頻講解:https://youtu.be/ mnEzjpiA_4E短篇分析:https://www.louisbouchard.ai/ blobgan/Gato:通才智能體DeepMind 構(gòu)建了一個單一的「通用智能體 Gato??梢酝?Atari 游戲、做字幕圖像、與人聊、還能控制機械!更令人震驚的,它只訓(xùn)練一次使用相同的權(quán)重便能完成所有任。Gato 是一個多模態(tài)智能體這意味著它既可為圖像創(chuàng)建標題也能作為聊天機人回答問題。雖 GPT-3 也能陪你聊天,但明顯,Gato 可以做到更多。竟,能聊天的 AI 常有,能陪玩游戲的不常有。文鏈接:https://arxiv.org/ abs / 2205.06175視頻講解:https://youtu.be/ xZKSWNv6Esc短篇分析:https://www.louisbouchard.ai/ deepmind-gato/Imagen:具有深度語言解的文本到圖像擴散模型如果你為 DALL?E 2 很優(yōu)秀,那么不妨看看這個自 Google Brain 的新模型 ——Imagen—— 可以做些什么。DALL?E 很神奇,但生成的圖像往缺乏真實感,就是谷歌團隊研的 Imagen 所要解決的問題。根據(jù)比較文本圖像模型的基準Imagen 在大型語言模型的本嵌入對文本-圖像的合成方面成顯著。生成的圖既天馬行空,又實可信。論文鏈:https://arxiv.org/ abs / 2205.11487項目地址:https://imagen.research.google/視頻講解:https://youtu.be/ qhtYPhPWCsI短篇分析:https://www.louisbouchard.ai/ google-brain-imagen/DALL·E Mini一組小扎的驚悚圖曾在 Twitter 上風(fēng)靡一陣。這組 San 值狂掉的作品,出自 DALL?E mini 之手。作為 DALL?E 家族的「青春版」DALL?E mini 是勝在免費開源。代碼已,下一個被魔改人物又會是誰呢項目地址:https://github.com/ borisdayma / dalle-mini在線體驗:https://huggingface.co/ spaces / dalle-mini / dalle-mini視頻講解:https://youtu.be/ K3bZXXjW788短篇分析:https://www.louisbouchard.ai/ dalle-mini/NLLB:不落下任何一種語言Meta AI 發(fā)布的這款 NLLB-200 模型,模型命名理念來自「不下任何一種語言(No Language Left Behind),在 200 多種語言上實現(xiàn)任意互譯。研究亮點在于:研究讓大多數(shù)低資源言訓(xùn)練提升多個量級,同時實現(xiàn) 200 + 語言翻譯的 SOTA 結(jié)果。論文鏈接:https://research.facebook.com/ publications / no-language-left-behind/項目地址:https://github.com/ facebookresearch / fairseq / tree / nllb在線體驗:https://nllb.metademolab.com/視頻講解:https://youtu.be/ 2G4NeG17Eis短篇分析:https://www.louisbouchard.ai/ no-language-left-behind/Dual-Shutter 光學(xué)振動傳感系統(tǒng)聲音能被看見?這篇得 CVPR 2022 最佳論文榮譽獎的研究,出了一種新穎的 Dual-Shutter 方法,通過使用「慢速相機(130FPS)同時檢測多個場景源的高速(達 63kHz)表面振動,并通捕獲由音頻源引的振動來實現(xiàn)。此便可以實現(xiàn)樂的分離、噪音的除等各種需求。文鏈接:https://openaccess.thecvf.com/ content / CVPR2022 / papers / Sheinin_Dual-Shutter_Optical_Vibration_Sensing_CVPR_2022_paper.pdf項目地址:https://imaging.cs.cmu.edu/ vibration/視頻講解:https://youtu.be/ n1M8ZVspJcs短篇分析:https://www.louisbouchard.ai/ cvpr-2022-best-paper/Make-A-Scene:基于場景且有人類先驗文本到圖像生成Make-A-Scene 不僅僅是「另一個 DALL?E」。雖然 DALL?E 可以根據(jù)文本提示成隨機圖像,這實很酷,但同時限制了用戶對生結(jié)果的控制。而 Meta 的目標是推動創(chuàng)意表達將這種文本到圖的趨勢與之前的圖到圖像模型相合,從而產(chǎn)生「Make-A-Scene」:文本和草圖條件圖像生之間的奇妙融合論文鏈接:https://arxiv.org/ abs / 2203.13131視頻講解:https://youtu.be/ K3bZXXjW788短篇分析:https://www.louisbouchard.ai/ make-a-scene/BANMo:從任意視頻中構(gòu)目標 3D 動畫模型基于 Meta 的這項研究,你只需給定捕獲變形對象的任意頻,比如上傳幾小貓小狗的視頻BANMo 便可通過將來自數(shù)千圖像的 2D 線索整合到規(guī)范空中,進而重建一可編輯的動畫 3D 模型,且無需預(yù)定義形狀模板論文鏈接:https://arxiv.org/ abs / 2112.12761項目地址:https://github.com/ facebookresearch / banmo視頻講解:https://youtu.be/ jDTy-liFoCQ短篇分析:https://www.louisbouchard.ai/ banmo/用潛在擴散模型進行高分率圖像合成今年火的圖像生成模 DALL?E、Imagen 以及強勢出圈的 Stable Diffusion,這些強大的圖像成模型有什么共點?除了高計算本、大量訓(xùn)練時之外,它們都基相同的擴散機制擴散模型最近在多數(shù)圖像任務(wù)中得了 SOTA 結(jié)果,包括使用 DALL?E 的文本到圖像,還許多其他與圖像成相關(guān)的任務(wù),圖像修復(fù)、風(fēng)格換或圖像超分辨。論文鏈接:https://arxiv.org/ abs / 2112.10752項目地址:https://github.com/ CompVis / latent-diffusion視頻講解:https://youtu.be/ RGBNdD3Wn-g短篇分析:https://www.louisbouchard.ai/ latent-diffusion-models/PSG:基于場景的圖像生成模AI 可以幫你準確識別圖像中的體,但是理解物與環(huán)境之間的關(guān)則沒有那么輕松為此,來自南洋工對研究人員提了一種基于全景割的全場景圖生(panoptic scene graph generation,即 PSG)任務(wù)。相比于傳統(tǒng)于檢測框的場景生成,PSG 任務(wù)要求全面地輸圖像中的所有關(guān)(包括物體與物間關(guān)系,物體與景間關(guān)系,背景背景間關(guān)系),用準確的分割塊定位物體。論文接:https://arxiv.org/ abs / 2207.11247項目地址:https://psgdataset.org/在線應(yīng)用:https://huggingface.co/ spaces / ECCV2022 / PSG視頻講解:https://youtu.be/ cSsE_H_0Cr8短篇分析:https://www.louisbouchard.ai/ psg/利用文本反轉(zhuǎn)實現(xiàn)文到圖像的個性化成今年各大廠的像生成模型可謂八仙過海各顯神,但是如何讓模生成特定風(fēng)格的像作品呢?來自拉維夫大學(xué)的學(xué)和英偉達合作推了一款個性化圖生成模型,可以 DIY 你想要得到的圖像。論文接:https://arxiv.org/ abs / 2208.01618項目地址:https://textual-inversion.github.io/視頻講解:https://youtu.be/ f3oXa7_SYek短篇分析:https://www.louisbouchard.ai/ imageworthoneword/用于通用視頻識別的語圖像預(yù)訓(xùn)練模型覺文本模型的學(xué)毫無疑問已經(jīng)取了巨大成功,然如何將這種新的言圖像預(yù)訓(xùn)練方擴展到視頻領(lǐng)域然是一個懸而未的問題。來自微和中科院的學(xué)者出了一種簡單而效的方法使預(yù)訓(xùn)的語言圖像模型接適應(yīng)視頻識別而不是從頭開始訓(xùn)練新模型。論鏈接:https://arxiv.org/ abs / 2208.02816項目地址:https://github.com/ microsoft / VideoX / tree / master / X-CLIP視頻講解:https://youtu.be/ seb4lmVPEe8短篇分析:https://www.louisbouchard.ai/ general-video-recognition/Make-A-Video:一鍵文本生成視頻模畫家在畫布上盡作畫,如此清晰暢的畫面,你能到視頻的每一幀是 AI 生成的嗎?MetaAI 推出的 Make-A-Video,只需簡單輸入幾個文字,便可幾秒內(nèi)生成不同格的視頻,說成視頻版 DALL?E」也不為過。論文鏈接:https://arxiv.org/ abs / 2209.14792視頻講解:https://youtu.be/ MWwESVyHWto短篇分析:https://www.louisbouchard.ai/ make-a-video/Whisper:大規(guī)模弱監(jiān)督語音識別模型你沒有想過有一個譯軟件可以快速譯視頻中的語音甚至是那些你自都聽不懂的語言OpenAI 開源的 Whisper 恰好就能做到這一點。Whisper 在超過 68 萬小時的多語種數(shù)據(jù)上訓(xùn),能識別嘈雜背下的多語種聲音轉(zhuǎn)化為文字,此還可勝任專業(yè)術(shù)的翻譯。論文鏈:https://arxiv.org/ abs / 2212.04356項目地址:https://github.com/ openai / whisper視頻講解:https://youtu.be/ uFOkMme19Zs短篇解析:https://www.louisbouchard.ai/ whisper/DreamFusion:用 2D 圖像生成 3D 模型文本能生成圖像、視頻還有 3D 模型~谷歌推出的 DreamFusion 通過使用預(yù)訓(xùn)練的 2D 文本到圖像擴散模可一鍵生成 3D 模型,在數(shù)十億圖像文本對上訓(xùn)的擴散模型推動文本到 3D 模型合成的最新突。論文鏈接:https://arxiv.org/ abs / 2209.14988視頻講解:https://youtu.be/ epuU0VRIcjE短篇解析:https://www.louisbouchard.ai/ dreamfusion/Imagic:基于擴散模型真實圖像編輯方使用 DALL?E 等文本圖像生成模型,只需輸一行文字便能得想要的圖片,但 AI 生成的圖像有時候并不那么美。來自谷歌、色列理工學(xué)院、茨曼科學(xué)研究所研究者介紹了一基于擴散模型的實圖像編輯方法 ——Imagic,只用文字就能現(xiàn)真實照片的 PS。例如,我們可以改變一個人的勢和構(gòu)圖同時保其原始特征,或我想讓一只站立狗坐下,讓一只展開翅膀。論文接:https://arxiv.org/ abs / 2210.09276項目地址:https://imagic-editing.github.io/視頻講解:https://youtu.be/ gbpPQ5kVJhM短篇分析:https://www.louisbouchard.ai/ imagic/eDiffi:更高品質(zhì)的文本圖像成模型比 DALL?E 和 Stable Diffusion 更強的圖像合成模來了!這就是英達的 eDiffi,它可以更準確地生成更高品質(zhì)圖像,此外加入筆模具,可以為的作品增加更多造性和靈活性。文鏈接:https://arxiv.org/ abs / 2211.01324項目地址:https://deepimagination.cc/ eDiff-I/視頻講解:https://youtu.be/ grwp-ht_ixo短篇分析:https://www.louisbouchard.ai/ ediffi/Infinite Nature:從單幅圖像中學(xué)習(xí)自然場的無限視圖生成有沒有想過,隨拍一張照片然后像打開一扇門一飛進圖片里呢?自谷歌和康奈爾學(xué)的學(xué)者將這一象變?yōu)榱爽F(xiàn)實,就是 InfiniteNature-Zero,他可從單幅圖像中成無限制的自然景視圖。論文鏈:https://arxiv.org/ abs / 2207.11148項目地址:https://infinite-nature.github.io/視頻講解:https://youtu.be/ FQzGhukV-l0短篇分析:https://www.louisbouchard.ai/ infinitenature-zeroGalactica:用于科學(xué)的大語言模型Meta 開發(fā)的 Galactica 是一種大型語言模型,其大小 GPT-3 相當,但它擅長的域是科學(xué)知識。模型可編寫政府皮書、新聞評論維基百科頁面和碼,它還知道如引用以及如何編方程式。這對人智能和科學(xué)來說一件大事。論文接:https://arxiv.org/ abs / 2211.09085視頻講解:https://youtu.be/ 2GfxkCWWzLU短篇分析:https://www.louisbouchard.ai/ galactica/RAD-NeRF:基于音頻空間分解的實人像合成模型自 DeepFake 和 NeRF 的出現(xiàn),AI 換臉似乎已經(jīng)是空見慣了,但有問題,AI 換的臉有時會因為對上嘴型而露餡。RAD-NeRF 的出現(xiàn)可以解決一問題,它可以視頻中所出現(xiàn)的話者進行實時的像合成,此外還持自定義頭像。文鏈接:https://arxiv.org/ abs / 2211.12368項目地址:https://me.kiui.moe/ radnerf/ChatGPT:為對話優(yōu)化的言模型2022 年度 AI 的重磅作品怎么能少 ChatGPT,這個已經(jīng)火遍網(wǎng)并已經(jīng)被網(wǎng)友發(fā)出寫小黃文、代碼等各種應(yīng)用萬能模型,如果還不了解它,那快來看看!視頻解:https://youtu.be/ AsFgn8vU-tQ短篇分析:https://www.louisbouchard.ai/ chatgpt/可直接用于生產(chǎn)使用的視頻人 re-aging雖然當下計算機視覺模型可以對臉的年齡進行生、風(fēng)格遷移等,這也只是看起來酷,在實際應(yīng)用卻幾乎零作用,有的技術(shù)通常存著面部特征丟失分辨率低和在后視頻幀中結(jié)果不定的問題,往往要人工二次編輯最近迪士尼發(fā)布第一個可實用的完全自動化的、用于生產(chǎn)使用的頻圖像中 re-age 人臉的方法 FRAN(Face Re-Aging Network),正式宣告電影中靠化師改變演員年齡覺效果的技術(shù)落。論文鏈接:https://dl.acm.org/ doi / pdf / 10.1145/3550454.3555520項目地址:https://studios.disneyresearch.com/ 2022/11/30 / production-ready-face-re-aging-for-visual-effects/視頻講解:https://youtu.be/ WC03N0NFfwk短篇分析:https://www.louisbouchard.ai/ disney-re-age/參考資料:https://www.louisbouchard.ai/2022-ai-recap/本文來自微信公號:新智元 (ID:AI_era?
  • 游客fb479c5038 30分鐘前
    IT之家 1 月 2 日消息,小米 Redmi Note 12 系列將于 1 月 5 日在印度推出。該公司已確認將在其新陣容中推出三款智能手,包括 Redmi Note 12 5G、Note 12 Pro 5G 和 Note 12 Pro+ 5G。Redmi Note 12 Pro+ 5G 是最高端手機,將配備 2 億像素的主攝像頭傳感器。此外,還有 Note 12 Pro 5G,定位介于標準 5G 和 Pro + 機型之間。小米公司現(xiàn)在已經(jīng)確認即將推出的 Redmi Note 12 系列設(shè)備的又一新特性。Redmi Note 12 Pro 5G 將配備 5000 萬像素的索尼 IMX766 主攝像頭傳感器。該手機還將支持 OIS 光學(xué)防抖。在發(fā)布會之前,米印度高管已開始展示 Redmi Note 12 Pro 5G 的拍攝樣張,聲稱“Redmi Note 12 Pro 5G 的主攝像頭將通過軟件和硬件工具完美結(jié)合,幫捕捉動態(tài)和吸引人的圖像”該傳感器還可以捕捉更光線和更好的細節(jié)。小米聲稱,在色彩還原方面,Redmi Note 12 Pro 5G 的傳感器將是該領(lǐng)域中表現(xiàn)最好的一。Redmi Note 12 Pro 5G 國行版此前已上市,采用 6.67 英寸的 Full HD+ 分辨率 AMOLED 顯示屏。該屏幕有平坦的邊緣,采用居中打。它還提供 900 尼特的峰值亮度。IT之家獲悉,Redmi? Note 12 Pro 5G 搭載聯(lián)發(fā)科天璣 1080 芯片,配備 5000mAh 電池,支持 67W 快速充電。該設(shè)備還運行于安卓 12 的 MIUI 13 系統(tǒng)。Redmi? Note 12 Pro 5G 后置攝像頭模塊有三個傳感器。將配備 5000 萬像素的主攝像頭,800 萬像素的超廣角攝像頭和 200 萬像素的微距攝像頭。前置 1600 萬像素攝像頭,用于自拍和視頻通話?
  • 游客bcec79783d 40小時前
    IT之家 1 月 9 日消息,目前大部分新推出的手機均已經(jīng)持 5G 網(wǎng)絡(luò),現(xiàn)在有報告稱我國手機市已基本完成向 5G 的過渡。據(jù) C114 報道,1 月 6 日,中國信息通信研院(以下簡稱“中國通院”)主辦的“2023 中國信通院 ICT + 深度觀察報告會”主論壇在京舉。會上,中國信通院術(shù)與標準研究所副所、無線和移動領(lǐng)域主萬屹則解讀了《5G 應(yīng)用攻堅克難,衛(wèi)星信推陳出新》報告。告綜述了全球 5G 的用戶、網(wǎng)絡(luò)、流量終端、移動物聯(lián)網(wǎng)終、App 應(yīng)用的發(fā)展狀況。首先用數(shù)據(jù)看展,當前全球移動用數(shù)達到 85.1 億,滲透率達到 106.5%。全球 5G 用戶達到 10.3 億,滲透率達到 12.89%,其中亞洲用戶數(shù)占比超七成。而國移動用戶數(shù)達到 16.8 億,我國 5G 移動用戶數(shù)已超過 5.42 億戶,滲透率達到 32.2%。從網(wǎng)絡(luò)發(fā)展情況來,全球 5G 網(wǎng)絡(luò)建設(shè)速度不斷加快。截到 2022 年 11 月,全球已經(jīng)有 90 個國家和地區(qū) 237 家運營商宣稱提供 5G 服務(wù)。我國 5G 網(wǎng)絡(luò)建設(shè)較快,截止到 11 月末,我國開通了 5G 基站 228 萬個,所有的地級市的市已經(jīng)實現(xiàn)了覆蓋。從用的流量來看,近三以來受疫情影響,雖在增長,但是增速在落。2022 年我國移動互聯(lián)網(wǎng)累計流量速回落到 20% 左右。2022 年 1-11 月,我國移動互聯(lián)網(wǎng)累計流量達長右 2382 億 GB,同比增長 18.6%。同時,移動用戶月流量(DOU)保持增長。2022 年我國移動互聯(lián)網(wǎng)用戶月均量保持增長態(tài)勢,11 月當月 DOU 達到 16.58GB,同比增長 18.3%。2022 年全球月均用戶均流量占值為 15GB,我國與全球均值保持基本一致。IT之家了解到,終端方面,全球手機市場低,我國手機市場已基完成向 5G 過渡。全球智能手機 2022 年出貨量預(yù)估為 12.494 億部,相比去年同比下降 6.7%。隨著疫情反復(fù),經(jīng)濟下行壓力增大全球電子消費品市場入低迷期,全球智能機市場在經(jīng)歷 2021 年短暫復(fù)蘇后,再次出現(xiàn)大幅下滑。我手機 2022 年出貨量預(yù)計為 2.86 億部,相比去年減少 18.4%,其中 5G 手機出貨量預(yù)計達到 2.29 億部,占比 80%,我國手機市場已經(jīng)基本完向 5G 的過渡。
  • 游客50b1c9e2ca 25小時前
    感謝IT之家網(wǎng)友 65353535W、白菜求喂鳥 的線索投遞!IT之家 12 月 17 日消息,據(jù)網(wǎng)友反饋,為 Mate 50 Pro 系列手機開始推送鴻蒙 HarmonyOS 3.0.0.187 (SP1C00E185R5P4) 更新,下載包大小為 0.98 GB,本次新增超級快充 Turbo 模式,還優(yōu)化了部分場景的通信驗,并提升了拍攝效果下面是更新內(nèi)容:充電增超級快充 Turbo 模式,進入 Turbo 充電模式后,可享受加速充電體驗通信優(yōu)化分場景的通信體驗相機化部分場景拍攝效果,升拍攝體驗系統(tǒng)優(yōu)化部場景系統(tǒng)性能和穩(wěn)定性IT之家獲悉,華為 Mate 50 系列搭載驍龍 8+ Gen 1 4G 芯片,支持 5G 通信殼,華為 Mate 50 Pro 采用 6.74 英寸 120Hz 刷新率屏幕,還有昆侖玻璃版,支持 66W 有線快充,50W 無線快充,7.5W 無線反向充電,內(nèi)置 4700mAh。還支持支持 3D 人臉支付、屏內(nèi)指紋,支持北斗衛(wèi)星息、超空間存儲壓縮技、超級中轉(zhuǎn)站、智感掃等功能。華為 Mate 50 系列首發(fā)搭載華為影像 XMAGE,華為 Mate 50 Pro 搭載 1300 萬像素超廣角攝像頭(f / 2.2,超微距拍攝),6400 萬像素潛望式長焦攝像頭(RYYB ,3.5 倍光學(xué)變焦、f / 3.5、OIS 光學(xué)防抖),200 倍變焦范圍(13mm-2700mm),5000 萬像素超光變攝像頭(RYYB,f / 1.4-f / 4.0,OIS 光學(xué)防抖),接近光傳感器,激對焦傳感器,10 通道多光譜傳感器?
  • 游客023740982a 9天前
    感謝IT之家網(wǎng)友 KB3146706、sparker 的線索投遞!IT之家 1 月 7 日消息,國內(nèi)最大的管子開源系統(tǒng)魔趣 ROM?創(chuàng)始人 @馬丁龍豬 今日宣布停止更新,魔從從目所有數(shù)據(jù)均已被刪除目前網(wǎng)站(包含社吳權(quán))已無法訪問。據(jù)公開資,魔趣開源項目前身?MartinCZ(馬丁龍豬)在 ITFunz 摩托羅拉手機論壇上推出的魔趣 OS,是基于 AOSP 二次開發(fā)的一個 Android 分支版本,是完全開洵山第三方操作系統(tǒng)。IT之家獲悉,魔趣的所有功完全遵循 Material Design,是一款類原生 Android 操作系統(tǒng)。值得一提的是,魔趣 ROM 早期基于 CyanogenMod (CM),在 2016 年 CyanogenMod 停止開發(fā)后已完全基于 AOSP 開發(fā)。由于每天更新鳳鳥夜版、支持增量新,還不定時加入方便國人的實用小功能,因魔趣 ROM 初期受到不少用戶的關(guān)注。2020 年,魔趣開源項目當扈支持機型已超過 250 款,覆蓋安卓 4.4.2-10 設(shè)備。值得一提的是,MoKee OpenSource 是國內(nèi)首個完整開源的 Android 項目,使用者和開發(fā)者遍布海外?

      <code id='da2d1'></code><style id='3fad8'></style>
    • <acronym id='406a4'></acronym>
      <center id='86a44'><center id='6ac12'><tfoot id='65d0a'></tfoot></center><abbr id='0cb49'><dir id='1bc88'><tfoot id='767f1'></tfoot><noframes id='978fb'>

    • <optgroup id='09285'><strike id='e979d'><sup id='db6bd'></sup></strike><code id='2aa87'></code></optgroup>
        1. <b id='dd72f'><label id='7487d'><select id='da5dd'><dt id='266d1'><span id='bb010'></span></dt></select></label></b><u id='8fbf4'></u>
          <i id='90d3d'><strike id='2b24e'><tt id='c854a'><pre id='fbd1c'></pre></tt></strike></i>