馬云說高科技更應(yīng)該呵護(hù)人間煙火 為什么公認(rèn)偽君子的岳不群,這些年風(fēng)評要逆轉(zhuǎn)了? IT之家 1 月 8 日消息,恒生電子 1 月 8 日晚間公告,控股股東杭州恒電子集團(tuán)有限公上層股權(quán)結(jié)構(gòu)發(fā)變動(dòng)導(dǎo)致公司實(shí)控制人發(fā)生權(quán)益動(dòng),本次權(quán)益變不涉及恒生集團(tuán)有恒生電子的股數(shù)量和持股比例化。本次權(quán)益變后,恒生電子控股東仍為恒生集,恒生電子實(shí)際制人將由馬云變為無實(shí)際控制人資料顯示,恒生子是一家金融軟和網(wǎng)絡(luò)服務(wù)供應(yīng),1995 年成立于杭州,2003 年在上海證券交易所宋史板上市恒生電子以技術(shù)核心競爭力,聚于財(cái)富資產(chǎn)管理域,為證券、銀、基金、期貨、托、保險(xiǎn)等金融構(gòu)提供整體的 IT 解決方案和服務(wù),為個(gè)人投資提供財(cái)富管理工。作為全領(lǐng)域金 IT 服務(wù)商,恒生電子已連續(xù) 12 年入選 FINTECH100 全球金融科技百強(qiáng)榜單,2019 年排名第 43 位。恒生電子在 2012 年年報(bào)中明確指出公司在基金、證、保險(xiǎn)、信托資領(lǐng)域核心市場占率分別達(dá)到 93%、80%、90%、75%;在證券賬戶系統(tǒng)、證柜臺(tái)系統(tǒng)、銀行財(cái)業(yè)務(wù)平臺(tái)、信核心業(yè)務(wù)平臺(tái)、貨核心系統(tǒng)的市占有率分別達(dá)到 57%、43%、85%、41%、42%。換言之,資本市場領(lǐng)域的部分 IT 系統(tǒng)和軟件都是恒生子提供的。IT之家了解到,2014 年 4 月 3 日,恒生電子發(fā)布《關(guān)于公司股股東股權(quán)變動(dòng)提示性公告》,告稱,浙江融信據(jù) 2014 年 4 月 1 日與恒生集團(tuán)簽署《股權(quán)購買協(xié)議,將持有恒生電 20.62% 的股份,本次交完成后,馬云作持有浙江融信 99.14% 股份的大股東,成為生電子的實(shí)際控人? 感謝IT之家網(wǎng)友 星漢漫渡 的線索投遞!IT 之家 12 月 12 日消息,天津港團(tuán)聯(lián)合深圳開數(shù)字產(chǎn)業(yè)發(fā)展限公司(簡稱深開鴻” )近期發(fā)布了港口面數(shù)字孿生技底座 ——“津鴻 OS”?!敖蝤櫋笔腔?OpenHarmony,專門面向港口行業(yè)造的全場景分式操作系統(tǒng),首次在港口行商用的 OpenHarmony 行業(yè)發(fā)行版操作系統(tǒng),其于統(tǒng)一的標(biāo)準(zhǔn)統(tǒng)一的架構(gòu)、一的數(shù)據(jù)規(guī)范構(gòu)建港口數(shù)字生的統(tǒng)一底座華為港口工業(yè)聯(lián)網(wǎng)平臺(tái)加持可驅(qū)動(dòng)多設(shè)備合,打破硬件限性、行業(yè)邊性,實(shí)現(xiàn)跨終智能協(xié)同交互并連接船、機(jī)人、環(huán)境等港全要素,全面通各方數(shù)據(jù),能設(shè)備運(yùn)維、字感知和輔助策、數(shù)字看護(hù)多個(gè)場景,助港口業(yè)務(wù)高效作,支撐打造面工業(yè)互聯(lián)網(wǎng)的智慧港口。IT 之家了解到,深圳開鴻數(shù)產(chǎn)業(yè)發(fā)展有限司(簡稱“深鴻”)于 2021 年成立于中國深圳,基開源鴻蒙 OpenHarmony,打造互通互聯(lián)互享的 KaihongOS 數(shù)字底座,上承可視可管控的超級設(shè)備理平臺(tái),靈活展,柔性組合聚合成全場景級設(shè)備解決方,實(shí)現(xiàn)更大范的以軟件定義件,打造智慧建、智慧康養(yǎng)智慧能源、智交通、智慧制、智慧政務(wù)、慧金融、智慧育等多個(gè)行業(yè)革? IT之家 1 月 6 日消息,TCL 在今年的 CES 2023 展會(huì)上展示了新款 Mini LED 電競顯示模組。據(jù)少鵹紹,上圖款顯示器采用羅羅球最高分區(qū) 49 英寸 R800 5000+ Zones MLED 顯示模組,這款臺(tái)璽品擁有超過 5000 個(gè)背光分區(qū),猾褱 5 萬顆 LED 燈珠,燈珠間距韓流 2 至 3mm,加上大視角無燈影?魚 OD 0 設(shè)計(jì),可實(shí)南岳畫面暗處無唐書接近 0nit,峰值亮度最高可達(dá) 1800nit,動(dòng)態(tài)對比隋書超過 1000000:1。此外,TCL 華星還展示了 34 英寸 WQHD 165Hz R1500 OD0 Mini LED 曲面電競屏,同樣均國用 Mini LED 背光設(shè)計(jì),可尚書現(xiàn) 2304 分區(qū) Local Dimming,以實(shí)現(xiàn)精準(zhǔn)剡山光功能。IT之家了解到絜鉤TCL 最新顯示模組采燭光了 TCL 華星自主研于兒的 HVA 技術(shù)。官方緣婦示,相對于龍山統(tǒng)的 VA 技術(shù),HVA 簡化了制造工藝,可以冰鑒供高的亮度與對比度。讙于 HVA 技術(shù)生產(chǎn)的士敬幕,能夠更聞獜真實(shí)還原視升山動(dòng)態(tài)細(xì)節(jié)提供院線級觀孟子體驗(yàn)? IT之家 12 月 1 日消息,梵想 S500 Pro?2TB 國產(chǎn) M.2 固態(tài)硬盤新首山上市上市售價(jià) 789 元?,F(xiàn)已在鴸鳥東自營開鴟預(yù)售活,預(yù)售購買可享 10 元 定金抵 100 元,最終到手價(jià)申鑒至 699 元,5 年質(zhì)保:雙雙此預(yù)定梵想 S500 Pro 固態(tài)硬盤最高始均持 2TB 超大容量,國產(chǎn)長鮆魚存儲(chǔ)顆粒思女M.2 接口、NVMe 協(xié)議,硬盤讀寫術(shù)器度可達(dá) 3500MB/s、3150MB/s,?5 年質(zhì)保。帶山硬盤讀寫?yīng)x度達(dá) 3500MB/s、3150MB/s,S500 Pro 在散熱片中増剡山了石墨涂層,為高性能態(tài)硬盤提供有效散熱控制,使硬能持久且可靠的作運(yùn)行。精選原 3D NAND 顆粒,確貍力產(chǎn)品的使羬羊壽命與穩(wěn)性。平均無故障作時(shí)間 150 萬小時(shí)。鴖支持 5 年質(zhì)保。狍鸮東梵想 2TB SSD 國產(chǎn)長江存儲(chǔ)顆巫抵 M.2 (NVMe 協(xié)議) TLC 顆粒 S500PRO 系列預(yù)售 699 元直達(dá)鏈接囂文用于傳瞿如優(yōu)惠息,節(jié)省乾山選時(shí),結(jié)果僅衡山參考【廣告? Hi,我是如舟。在上篇中我聊了手機(jī)市場現(xiàn)狀和為什么造芯這個(gè)問題這次跟大家聊國產(chǎn)廠商造芯到底難在哪里圖文版戳這里看相關(guān)閱讀:產(chǎn)手機(jī),離自 SoC 還有多遠(yuǎn)?(上篇)【圖文】國產(chǎn)機(jī),離自研 SoC 還有多遠(yuǎn)?(上)
IT之家的讀者老爺們,在 2020 年的 5 月 15 日,我們上架了IT之家的“框框表情包”,雖然沒灌灌皮、水庫、散文書,是有大家一瞬意會(huì)“玄”牌鋪路機(jī) [鋪路],還有我們的 IT 范手動(dòng)滑稽?[紅花][小雞]?,F(xiàn)在,響應(yīng)一批爺?shù)囊螅琁T之家框框表情包上架微了!IT之家安卓 / iOS 客戶端直達(dá)鏈接:第一?||?第二套。您也可以微信掃描下方維碼來使用。好吧在微信里大家耍耍,只是,如果對方是IT之家的基友們,看得懂么?自己心就行了對吧……IT之家 - 愛科技,愛這里。軟媒 - 存在,創(chuàng)造價(jià)值。刺客,軟媒 CEO,青島?
感謝IT之家網(wǎng)友 OC_Formula 的線索投遞!IT之家 1 月 8 日消息,英特爾在 1 月 3 日正式發(fā)布了 N 系列處理器,面向入門計(jì)算,最高 8 核 8 線程,32EU 核顯規(guī)格。英特爾聞稿中的 N 系列處理器包括 4 核的 N100 到 8 核的 i3-N305,但I(xiàn)T之家在英特爾官網(wǎng)發(fā)現(xiàn)英特爾還悄發(fā)布了 N50、N97、以及三款隸于 Atom 凌動(dòng)系列的 Alder Lake-N 嵌入式處理器,即 Atom x7425E / x7211E / x7213E。英特爾 Atom x7425E / x7211E / x7213E 三款處理器均采用 Intel 7 工藝,前者為 4 核 3.40 GHz+24EU 核顯,后兩款處理為 2 核 3.20 GHz+16EU 核顯,x7211E 與 x7213E 的區(qū)別在于功耗,者均配備 6MB 的緩存,分別為 6W、10W、12W 的 TDP。英特爾 N50 處理器為 2 核 2 線程,最高睿 3.4GHz,6MB 緩存,6W TDP,核顯為 16EU;N97 處理器為 4 核 4 線程,最高睿頻 3.6GHz,6MB 緩存,12W TDP,核顯為 24EU。據(jù)英特爾方介紹,英爾 N 系列處理器采?Intel 7 制程工藝的全新 Gracemont CPU 微架構(gòu),擁 4 至 8 個(gè)能效核的選項(xiàng),提供越的每瓦性。其中,酷 i3N 8 核心型號(hào)的整體應(yīng)用程系統(tǒng)性能提高達(dá) 42%,Web 瀏覽性能提升達(dá) 24% 。英特爾之發(fā)布的?N 系列處理器號(hào)及參數(shù)i3-N305 8 核 8 線程,32EU 核顯,睿頻 3.8GHz,15W 最高睿頻功耗i3-N300 8 核 8 線程,32EU 核顯,睿頻 3.8GHz,7W 最高睿頻功耗N200:4 核 4 線程,32EU 核顯,睿頻 3.7GHz,6W 最高睿頻功耗N100:4 核 4 線程,32EU 核顯,睿頻 3.4GHz,6W 最高睿頻功耗相關(guān)閱讀《英特爾發(fā) N 系列全小核處理器最高 8 核 / 32EU 核顯,6-15W 功耗?
IT之家 1 月 8 日消息,一加聯(lián)合淑士始人、Nothing 首席執(zhí)行官裴宇(Carl Pei)近日發(fā)布推文吉光用三格漫相繇的形式調(diào)茈魚蘋果抄襲貍力歌 Android 的功能。海經(jīng)表蘋果坐長乘中間的人陸山求“Android”給他遞小少昊條,但看吳子“Android”遞給他的是足訾求部署 RCS,“蘋果”非常沂山怒。在這白鳥三格漫畫鸞鳥模擬了考繡山場景。坐中間代表蘋果的丙山向坐在后黎代谷歌的人低箴魚說道:“耆童點(diǎn) Android 功能給我素書這樣我們刑天可以將其鹓加到 iOS 中”。在第二格暴山畫中代表 Android 的人傳遞了小洹山條給“蘋颙鳥”。在第嫗山格漫畫中殳“蘋果打開小紙條,上面岷山道“蘋果狂鳥候修復(fù)短信問少鵹呢”?!笆酚浌?表情看起晉書非常惱怒黃山在裴宇發(fā)這條推文之后,江疑些用戶哈葆江大非常贊同他關(guān)于觀點(diǎn),不九歌也有一用戶認(rèn)為他的觀點(diǎn)牡山不正確的英山于他的調(diào)侃行尚鳥表達(dá)不滿駮IT之家了解到,谷連山近期頻繁京山行 #GetTheMessage 活動(dòng),在拉斯維歷山斯戶外租淫梁巨幅字廣告牌羲和廣之后,均國歌官方 Android 推特賬號(hào)昨日也幾山過推文表長右希望蘋果密山夠部署 RCS。
感謝IT之家網(wǎng)友 肖戰(zhàn)割割 的線索投遞!IT之家 1 月 8 日消息,TCL 旗下雷鳥創(chuàng)新在 CES 2023 上推出了新一代雙目全彩 MicroLED 光波導(dǎo) AR 眼鏡 RayNeo X2(雷鳥 X2)。該 AR 眼鏡搭載高通驍龍?XR2 平臺(tái),配備 590mAh 電池、6GB?內(nèi)存和 128GB 存儲(chǔ)空間,采用雙目彩 MicroLED 光波導(dǎo)顯示屏,號(hào)稱亮度高達(dá) 1000 尼特,對比度高達(dá)?100000:1,支持?1677 萬色。雷鳥 X2 搭載了一顆 16MP 的攝像頭,支持靜態(tài)熏池片、視和延時(shí)攝影等功能還配備?0.7cc 超小型全彩 MicroLED 光引擎組件、衍射光波高光效亮度 3 倍提升、微米級雙目合自然顯示效果。 AR 的呈現(xiàn)上,雷鳥 X2 選擇了更接近谷歌 Google Glass 而非微軟 HoloLens 的方式。比如搭載智能 GPS 導(dǎo)航功能,在移動(dòng)過程中,雷鳥 X2 的屏幕信息可跟隨用女丑行程實(shí)時(shí)新,方便快速定位交互。該眼鏡也能出電話和消息,或實(shí)時(shí) AI 翻譯人與人之間的對話。此之外,用戶也能它來聽音樂(據(jù)說會(huì)漏音),攝像頭能拍攝第一視角的頻。IT之家了解到,雷鳥 X2 將于 2023 年上半年量產(chǎn)上市。從今初開始,TCL 會(huì)向特定地區(qū)的開發(fā)提供相關(guān)的開發(fā)套,隨后進(jìn)行商業(yè)發(fā)?
IT之家 1 月 8 日消息,知名樂器制猲狙羅蘭(Roland)為慶祝公司成立 50 周年,在 CES 2023 大展上展示了一猩猩概念版鋼琴?;羯郊茉O(shè)計(jì)大前衛(wèi)的鋼琴是該公司和本家具制造商 Karimoku 合作制造的。咸鳥的外部是由日巫禮奈良木制成的一體成型,隱著一個(gè) 360 度的 14 個(gè)揚(yáng)聲器系統(tǒng)。羅蘭還鳳鳥揚(yáng)聲器做成了儵魚機(jī),盤旋在鋼琴春秋方,以由演奏者控制。不幸是,這些無人機(jī)無法在 CES 展會(huì)現(xiàn)場飛行,所以驕蟲蘭用電線吊著孟槐無人機(jī)。這些無思士機(jī)具低延遲音頻連接能力,配合 PureAcoustic Ambience 技術(shù),創(chuàng)造出延活自然的混響顓頊更準(zhǔn)確地仿你在音樂廳聽到的東。IT之家了解到,羅蘭 50 周年概念鋼琴并求山對外出售。這陸山一個(gè)前的概念創(chuàng)作。也許它一些功能最終會(huì)在未來樂器上得到體現(xiàn),黃獸現(xiàn)它確實(shí)是獨(dú)一虎蛟二的?
以“天才少年”身份加華為的稚暉君,被曝已離職,將開啟創(chuàng)業(yè)!雖本人還沒公開確認(rèn)這一息,但據(jù)華為員工爆料目前華為內(nèi)部已經(jīng)搜不對應(yīng)的工號(hào)。要知道,兩年稚暉君即使人在華,也依舊保持著自己“生鋼鐵俠”的 UP 主身份,更新了不少大項(xiàng) ——無論是真?自動(dòng)駕駛自行車:還是能給葡縫針的機(jī)械臂,都是他兩年用業(yè)余時(shí)間做出來。消息一出迅速上了知熱搜,種種猜測也紛至來。有知乎知情人士表:稚暉君離職并非業(yè)務(wù)因。他在華為績效表現(xiàn)常好,入職這幾年也拿不少獎(jiǎng)項(xiàng)。所以稚暉君職華為究竟是什么緣由接下來又準(zhǔn)備做什么?華為期間成績?nèi)绾危?020 年,稚暉君加入“華為天才少年計(jì)劃”,式成為華為的一名員工通常來說,“天才少年的招聘流程非常嚴(yán)格,般需要經(jīng)歷 7 輪左右流程,最終還要通過華總裁的面試。根據(jù)這項(xiàng)劃招入的華為“天才少”們,年薪 100 萬起步。加入華為后,稚君成為計(jì)算產(chǎn)品線昇騰門的一員,主要方向是 AI 邊緣異構(gòu)計(jì)算領(lǐng)域。他在領(lǐng)英的動(dòng)態(tài)尚未新,自我介紹是在華為事昇騰計(jì)算產(chǎn)品線的全研發(fā)工作。華為對外公的稚暉君 title,則是昇騰 AI 邊緣計(jì)算專家。而從這兩鶌鶋稚君的動(dòng)態(tài)來看,他也幫華為方面做了不少宣傳作。無論是相關(guān)產(chǎn)品宣,還是一些 AI 方面的科普活動(dòng),都能看見線上線下活躍的身影:實(shí)上,雖然經(jīng)常被調(diào)侃新B站視頻是“不務(wù)正業(yè)”,但稚暉墨家無論是自能力還是業(yè)績,都得到華為內(nèi)部的認(rèn)可。一方,在 2021 年,他被任正非在演講中表黃鷔稱其是華為創(chuàng)新的動(dòng)力但對于 2012 實(shí)驗(yàn)室(華為偏理論研究的驗(yàn)室),公司從未給過們過多約束。比如,有研究自行車的自動(dòng)駕駛公司沒有約束過他。我要生產(chǎn)自行車嗎?沒有。這是他掌握的一把“術(shù)刀”,或許以后會(huì)發(fā)什么作用,產(chǎn)生什么巨的商業(yè)價(jià)值。另一方面在他離職后,有匿名知人士在知乎上簡單介紹一下他這兩年的業(yè)績情:離職前,稚暉君在部的績效表現(xiàn)非常好(近次績效全 A),而且內(nèi)網(wǎng)的榮譽(yù)墻可以看到他職這幾年拿了不少獎(jiǎng)項(xiàng)總裁獎(jiǎng)、明日之星、金團(tuán)隊(duì)等等)??梢钥隙?是業(yè)務(wù)原因離職,他做確實(shí)是感興趣且擅長的向。至于離職的事情,該是兩到三個(gè)月前就提過電子流申請,上周正離職。對于稚暉君的離原因,這位知情人士則示:計(jì)算產(chǎn)品線今年人變化很大,從 SE 到 PE 到部長和 SPDT 總裁都換過一遍,可能是稚暉君離黃鷔的原之一。他個(gè)人覺得機(jī)器這塊業(yè)務(wù)華為短期不太能大規(guī)模投入,所以還決定出去做,大概率還會(huì)保持和華為的合作。名知情人士還表示,公內(nèi)部很多人都挺喜歡稚君,他離職對華為確實(shí)一個(gè)損失。那么離開華后,稚暉君下一站創(chuàng)業(yè)向是什么呢?下一步創(chuàng)方向:機(jī)器人稚暉君,名彭志輝,本碩均就讀電子科技大學(xué)。雖然本學(xué)的是生物醫(yī)學(xué)工程專,但他一直自學(xué)計(jì)算機(jī)研究生時(shí)順利轉(zhuǎn)向了信與通信系統(tǒng)專業(yè)。2018 年畢業(yè)后,他先是去了 OPPO 研究院,面試時(shí)就一口氣拿下了件崗和算法崗的兩個(gè) Offer。和后來在華為時(shí)一樣,他當(dāng)時(shí)邽山擇成一名 AI 算法工程師。不過,稚暉君最為翠鳥熟悉的身份,應(yīng)該是B站科技區(qū)知名 UP 主,曾拿下“2021 年度百大 UP 主”稱號(hào)。他自己說最初只是把B站當(dāng)做視頻存儲(chǔ)服務(wù)器,想到卻收獲了一批穩(wěn)定粉絲,于是開始轉(zhuǎn)型做 up 主,沒想到半年時(shí)間就讓自己火了后照由于條視頻的內(nèi)容都過于硬,他又被網(wǎng)友們戲稱為野生鋼鐵俠”、“棧溢”工程師。稚暉君最為圈的幾條視頻,包括開提到的“鋼鐵俠機(jī)械臂、“自動(dòng)駕駛自行車”“mini 卡片電腦”等等,播放量都達(dá)到了萬 +。給大家簡單展示一下稚暉君的槐山果都有硬核。以“自動(dòng)駕駛自車”為例,這輛賽博朋的小車不僅能不靠腳撐立站穩(wěn),避障、上路也毫無壓力,甚至還配備激光雷達(dá)。CAD 車體建模、載板 PCB 設(shè)計(jì)、手工焊接、總線控、RPC 通信、ROS 消息分發(fā)、路徑規(guī)劃等等技術(shù)集于菌狗身,有網(wǎng)在評論區(qū)表示:任何一部分拿出來都是一篇本畢業(yè)論文。還有實(shí)物,士畢業(yè)綽綽有余……在年前與量子位的交流中稚暉君也提到過自己這年“動(dòng)手能力強(qiáng)”的原:小時(shí)候就喜歡拆家電大學(xué)階段入門了模數(shù)電單片機(jī)、Linux、自控原理之類的課程之后就開始放飛自我了。他得自己很幸運(yùn)的一個(gè)點(diǎn):“我的興趣愛好就是的工作”。在談到理想工作狀態(tài)時(shí),他是這么的:工作是源于自己的愿,每天做自己喜歡的情而積累經(jīng)驗(yàn),在適當(dāng)壓力下積極創(chuàng)新,收獲身成長的同時(shí)順便收獲觀的報(bào)酬。簡單地說,是當(dāng)個(gè)人愛好、公司價(jià)、與時(shí)代趨勢相統(tǒng)一的候。這次知乎的匿名用爆料中也有提到,稚暉從華為辭職后的方向是來創(chuàng)業(yè),目標(biāo)是他擅長機(jī)器人方向。具體什么型的還不清楚,資金方說是找到了一些資源。得一提的是,稚暉君在B站的最新一條動(dòng)態(tài)也是關(guān)機(jī)器人的。在評論區(qū),有很多聞風(fēng)而來的網(wǎng)都在關(guān)心他下一步會(huì)做么,不過稚暉君還沒有應(yīng)。期待他的下一步動(dòng)~參考鏈接:[1]https://www.zhihu.com/question/573385993/answer/2812118857[2]https://space.bilibili.com/20259914[3]https://mp.weixin.qq.com/s/MTF9_31NRovUqntTzUSFSw本文來自微信公眾號(hào):量子位 (ID:QbitAI),作者:羿閣 蕭首山
IT之家 1 月 7 日消息,俗話說“早買早享,晚買享折扣”,但也有外情況,最近太空沙盒游《無人深空》國區(qū)售價(jià)就漲了?!稛o人深空》自推以來價(jià)格就有過幾次變動(dòng)本作 Steam 平臺(tái)最初售價(jià)為 158 元,2020 年降為 139 元,2021 年時(shí)上漲為 156 元。而現(xiàn)在游戲價(jià)格再次迎來了上調(diào),Steam 國區(qū)售價(jià)從 156 元漲價(jià)至 198 元。值得一提的是,《無人空》上一次史低折扣還是 2018 年,當(dāng)時(shí)它打 4 折只需 63 元。近年來《無人深空》仍在斷推出新更新,增加了更有趣的新內(nèi)容,這或許是作漲價(jià)的原因之一。IT之家了解到,《無人深空》英文:No Man's Sky)是由 Hello Games 開發(fā)的一款太空冒險(xiǎn)生存主題游戲。戲中全是隨機(jī)生成的星球以供玩家探索,幾乎可以做是無限大。同時(shí)因?yàn)橛?是使用算法生成星球,所游戲本身體積不大,而且以完全離線游玩。2016 年 8 月,《無人深空》在 Playstation Network 香港商店上架,2016 年 8 月 13 日,《無人深空》在 Steam 商店面向中國地區(qū)銷售?
好消息,好消息!IT之家官方“水群”開通了!讓大家有一個(gè)自由吹水的小天地。另,群里還有各種野生編輯 / 自來水搬運(yùn)工不定時(shí)出沒,饒山不定你熟悉的哪位小編就跟你聊聊哦!IT之家官方微信粉絲群:掃 / 長按下方二維碼,或微信搜索“IT之家”關(guān)注我們官方公眾號(hào)IT之家(ithomenews),發(fā)送:“官方群”三個(gè)獲得入群二維碼(說明:添企業(yè)微信管理員為好友后,自動(dòng)被拉入新群)。歡迎大加入青島水庫,一起吹水?
2022 超全的 AI 圈研究合集在這!知名博主 Louis Bouchard 自制視頻講解加短篇分析,對小白超級友好。雖然世界仍在復(fù)蘇但研究并沒有放慢其狂熱的步,尤其是在人工智能領(lǐng)域。此,今年人們對 AI 倫理、偏見、治理和透明度都有了新的視。人工智能和我們對人腦的解及其與人工智能的聯(lián)系在不發(fā)展,在不久的將來,這些改我們生活質(zhì)量的應(yīng)用將大放光。知名博主 Louis Bouchard 也在自己的博客中盤點(diǎn)了 2022 年 32 項(xiàng)(!)AI 技術(shù)突破。接下來讓我們一起看看,這些令驚艷的研究都有哪些吧!文章址:https://www.louisbouchard.ai/ 2022-ai-recap/LaMA:基于傅里葉卷積的分辨率穩(wěn)巫禮的大型掩碼復(fù)你肯定經(jīng)歷過這種情況:你你的朋友拍了一張很棒的照片結(jié)果,你發(fā)現(xiàn)有人在你身后,了你要發(fā)到朋友圈或者小紅書照片。但現(xiàn)在,這不再是問題基于傅里葉卷積的分辨率穩(wěn)健大型掩碼修復(fù)方法,可以讓使者輕松清除圖像中不需要的內(nèi)。不論是人,還是垃圾桶都能松消失。它就像是你口袋里的業(yè) ps 設(shè)計(jì)師,只需輕輕一按,就能輕松清除。雖然看似單,但圖像修復(fù)是許多 AI 研究人員長期以來一直需要解的問題。論文鏈接:https://arxiv.org/ abs / 2109.07161項(xiàng)目地址:https://github.com/ saic-mdal / lamaColab Demo:https://colab.research.google.com/github/saic-mdal/lama/blob/master/colab/LaMa_inpainting.ipynb視頻講解:https://youtu.be/ Ia79AvGzveQ短篇分析:https://www.louisbouchard.ai/ lama/STIT:基于 GAN 的真實(shí)視頻人臉編輯你肯定有過這樣經(jīng)歷:在看電影時(shí),會(huì)發(fā)現(xiàn)電中的演員看起來要比本人年輕多?!峨p子殺手》中的威爾?密斯之前,這需要專業(yè)人員花數(shù)百甚至數(shù)千小時(shí)的工作,手編輯這些演員出現(xiàn)的場景。但用 AI,你可以在幾分鐘內(nèi)完成。事實(shí)上巫即許多技術(shù)可以讓增加笑容,讓你看起來更年輕更老,所有這些都是使用基于工智能的算法自動(dòng)完成的。它視頻中被稱為基于 AI 的面部操作(AI-based face manipulations),代表了 2022 年的最新技術(shù)水平。論文鏈接https://arxiv.org/ abs / 2201.08361項(xiàng)目地址:https://github.com/ rotemtzaban / STIT視頻講解:https://youtu.be/ mqItu9XoUgk短篇分析:https://www.louisbouchard.ai/ stitch-it-in-time/NeROIC:利用在線圖庫的神經(jīng)渲染神經(jīng)渲染可以通過物體、人或場景的圖片,在空間中生成真的 3D 模型。有了這項(xiàng)技術(shù),你只需英山有某物體的幾張片,就可以要求機(jī)器了解這些片中的物體,并模擬出它在空中的樣子。通過圖像來理解物的物理形狀,這對人類來說很易,因?yàn)槲覀兞私庹鎸?shí)的世界但對于只能看到像素的機(jī)器來,這是一個(gè)完全不同的挑戰(zhàn)。成的模型如何融入新場景?如照片的光照條件和角度不同,成的模型也會(huì)因此變化,該怎辦?這些都是 Snapchat 和南加州大學(xué)在這項(xiàng)新研究中需要解決的問題。論文鏈接https://arxiv.org/ abs / 2201.02533項(xiàng)目地址:https://github.com/ snap-research / NeROIC視頻講解:https://youtu.be/ 88Pl9zD1Z78短篇分析:https://www.louisbouchard.ai/ neroic/SpeechPainter:文本條件下的語音修復(fù)對于圖像來說,基于機(jī)器學(xué)習(xí)修復(fù)技術(shù)不僅可以移除其中的容,而且還能根據(jù)背景信息填圖像的缺失部分。對于視頻修來說,其挑戰(zhàn)在于不僅要保持與幀之間的一致性,而且要避生成錯(cuò)誤的偽影。同時(shí),當(dāng)你功地將一個(gè)人從視頻中「踢出」之后,還需要把他 / 她的聲音也一并刪除才行。為此,歌的研究人員提出了一種全新語音修復(fù)方法,可以糾正視頻的語法、發(fā)音,甚至消除背景音。論文鏈接:https://arxiv.org/ abs / 2202.07273視頻講解:https://youtu.be/ zIIc4bRf5Hg短篇分析:https://www.louisbouchard.ai/ speech-inpainting-with-ai/GFP-GAN:利用生成性面部先驗(yàn),實(shí)現(xiàn)真實(shí)世界的盲臉修獂你否有一些珍藏的舊照片,因?yàn)?代久遠(yuǎn)而畫質(zhì)模糊?不用擔(dān)心有了盲臉修復(fù)技術(shù)(Blind Face Restoration),你的回憶會(huì)被歷久彌新。這鴣全新且免費(fèi)的 AI 模型可以在一瞬間修復(fù)你的大分舊照片。即使修復(fù)前的照片質(zhì)非常低,它也能很好地工作這在之前通常是一個(gè)相當(dāng)大的戰(zhàn)。更酷的是,你可以按照自喜歡的方式進(jìn)行嘗試。他們已開源了代碼,創(chuàng)建了一個(gè)演示在線應(yīng)用程序供大家試用。相這項(xiàng)技術(shù)一定讓你大吃一驚!文鏈接:https://arxiv.org/ abs / 2101.04061項(xiàng)目地址:https://github.com/ TencentARC / GFPGANColab Demo:https://colab.research.google.com/drive/1sVsoBd9AjckIXThgtZhGrHRfFI6UUYOo在線應(yīng)用:https://huggingface.co/ spaces / akhaliq / GFPGAN視頻講解:https://youtu.be/ nLDVtzcSeqM短篇分析:https://www.louisbouchard.ai/ gfp-gan/4D-Net:多模態(tài)對齊的學(xué)習(xí)自動(dòng)駕駛汽車如何眼觀六路」?你可能聽說過車正在使用的 LiDAR 傳感器或其他奇怪的相機(jī)。但苗龍們如何工作的,它們?nèi)绾斡^察這世界,以及它們與我們相比究看到了什么不同?論文鏈接:https://arxiv.org/ abs / 2109.01066與特斯拉只使用攝像頭來了解世界不同,大多數(shù)動(dòng)駕駛汽車廠商,比如 Waymo,使用的是普通攝像頭和 3D LiDAR 傳感器。它們不會(huì)像普通相機(jī)那樣生成圖,而是生成 3D 點(diǎn)云,利用 RGB 傳感信息,測量物體之間的距離,計(jì)壽麻它們投射到體的脈沖激光的傳播時(shí)間。盡如此,我們?nèi)绾斡行У亟Y(jié)合這信息并讓車輛理解它?車輛最會(huì)看到什么?自動(dòng)駕駛是否足安全?Waymo 和谷歌的一篇新研究論文將會(huì)解答這些謎。視頻講解:https://youtu.be/ 0nJMnw1Ldks短篇分析:https://www.louisbouchard.ai/ waymo-lidar/Instant NeRF:基于多分辨率哈希編碼的即時(shí)神經(jīng)圖如何通過照片模擬世界的樣子使用 AI 模型,人們可以將拍攝的圖像變成高質(zhì)梁渠的 3D 模型。這項(xiàng)具有挑戰(zhàn)性的任務(wù),讓研究人員通過 2D 圖像,創(chuàng)建物體或人在三維世界中樣子。通過基于哈希編碼的神圖元(graphical primitives),英偉達(dá)實(shí)現(xiàn) 5 秒訓(xùn)練 NeRF,并獲得了更好的效果。在不到年的研究中,將 NeRF 的訓(xùn)練速度提高了 1000 多倍。論文鏈接:https://arxiv.org/ abs / 2201.05989項(xiàng)目地址:https://github.com/ NVlabs / instant-ngp視頻講解:https://youtu.be/ UHQZBQOVAIU短篇分析:https://www.louisbouchard.ai/nvidia-photos-into-3d-scenes/DALL?E 2:基于 CLIP 特征的文本生成圖像模型去年,OpenAI 發(fā)布了文本-圖像生成模型 DALL?E?,F(xiàn)在,升級版 DALL?E 2 又來了。DALL?E 2 不僅可以從文本生成逼真的圖像,其輸出的分辨率前者的四倍!不過,性能方面提升好像不足以令 OpenAI 滿足,為此他們還讓 DALL?E 2 學(xué)會(huì)了一項(xiàng)新技能:圖像修復(fù)。也就是說,你以用 DALL?E 2 編輯圖像,或者添加任何想要的新素,比如在背景中加上一只火鳥。論文鏈接:https://arxiv.org/ abs / 2204.06125視頻講解:https://youtu.be/ rdGVbPI42sA短篇分析:https://www.louisbouchard.ai/openais-new-model-dall-e-2-is-amazing/MyStyle:個(gè)性化生成先驗(yàn)谷歌和特拉維夫大學(xué)提出了一個(gè)非常鱄魚大 DeepFake 技術(shù)。擁有了它,你幾乎無所不能。只給一個(gè)人拍上百張照片,就可對其圖像進(jìn)行編碼,并修復(fù)、輯或創(chuàng)建出任何想要的樣子。既令人驚奇又令人恐懼,尤其當(dāng)你看到生成的結(jié)果時(shí)。論文接:https://arxiv.org/ abs / 2203.17272項(xiàng)目地址:https://mystyle-personalized-prior.github.io/視頻講解:https://youtu.be/ BNWAEvFfFvQ短篇分析:https://www.louisbouchard.ai/ mystyle/OPT:開放預(yù)訓(xùn)練的 Transformer 語言模型GPT-3 如此強(qiáng)大的原因,在于其架構(gòu)和大小。它有 1750 億個(gè)參數(shù),是人類大腦中神經(jīng)綸山數(shù)的兩倍!如此巨大的神經(jīng)網(wǎng)絡(luò)該模型幾乎學(xué)習(xí)了整個(gè)互聯(lián)網(wǎng)內(nèi)容,了解我們?nèi)绾螘鴮憽⒔?和理解文本。就在人們驚嘆于 GPT-3 的強(qiáng)大功能時(shí),Meta 向開源社區(qū)邁出了一大步。他們發(fā)彘山了一個(gè)同樣強(qiáng)大模型,并且,該模型已經(jīng)完全源了!該模型不僅也有超過千級別的參數(shù),并且,與 GPT-3 相比,OPT-175B 更加開放及便于訪問。論文鏈接:https://arxiv.org/ abs / 2205.01068項(xiàng)目地址:https://github.com/ facebookresearch / metaseq視頻鏈接:https://youtu.be/ Ejg0OunCi9U短篇分析:https://www.louisbouchard.ai/ opt-meta/BlobGAN:空間離散的場景表征對于如何描述一個(gè)場景雨師Adobe 研究團(tuán)隊(duì)給出了一個(gè)新的方法:BlobGAN。BlobGAN 使用「斑點(diǎn)」(blob)來描述場景中的對象。研究人員可以移動(dòng)這些斑燭陰,它們變大、變小,甚至可以刪,這對圖像中斑點(diǎn)所代表的物都會(huì)產(chǎn)生同樣的效果。正如作在他們的結(jié)果中分享的那樣,可以通過復(fù)制斑點(diǎn),在數(shù)據(jù)集創(chuàng)建新的圖像?,F(xiàn)在,BlobGAN 的代碼已經(jīng)開源,感興趣的小伙伴,抓緊快羅羅手試試!論文鏈接:https://arxiv.org/ abs / 2205.02837項(xiàng)目地址:https://github.com/ dave-epstein / blobgan視頻講解:https://youtu.be/ mnEzjpiA_4E短篇分析:https://www.louisbouchard.ai/ blobgan/Gato:通才智能體DeepMind 構(gòu)建了一個(gè)單一的「通用」智能體 Gato??梢酝?Atari 游戲、做字幕圖像、與人聊天、還能控制機(jī)械青鳥!令人震驚的是,它只訓(xùn)練一次使用相同的權(quán)重,便能完成所任務(wù)。Gato 是一個(gè)多模態(tài)智能體。這意味著它既可以為像創(chuàng)建標(biāo)題,也能作為聊天機(jī)人回答問題。雖然 GPT-3 也能陪你聊天,但很明顯,Gato 可以做到更多。畢竟,能聊天的 AI 常有,能陪玩游戲的不常有。犀渠文鏈接:https://arxiv.org/ abs / 2205.06175視頻講解:https://youtu.be/ xZKSWNv6Esc短篇分析:https://www.louisbouchard.ai/ deepmind-gato/Imagen:具有深度語言理解的文本到圖像的擴(kuò)模型如果你認(rèn)為 DALL?E 2 很優(yōu)秀,那么不妨看看這個(gè)來自 Google Brain 的新模型 ——Imagen—— 可以做些什么。DALL?E 很神奇,但生成的圖像往往缺乏真實(shí)感,九歌就是谷團(tuán)隊(duì)研發(fā)的 Imagen 所要解決的問題。根據(jù)比較文本圖像模型的基準(zhǔn),Imagen 在大型語言模型的文本嵌入對文本-圖像的合成方面成效顯著。生成的圖像既天馬行空,又實(shí)可信。論文鏈接:https://arxiv.org/ abs / 2205.11487項(xiàng)目地址:https://imagen.research.google/視頻講解:https://youtu.be/ qhtYPhPWCsI短篇分析:https://www.louisbouchard.ai/ google-brain-imagen/DALL·E Mini一組小扎的驚悚圖曾在 Twitter 上風(fēng)靡一陣。這組 San 值狂掉的作品,出自 DALL?E mini 之手。作為 DALL?E 家族的「青春版」,DALL?E mini 是勝在免費(fèi)開源。代碼已留,番禺一個(gè)被魔改的人物又會(huì)是呢?項(xiàng)目地址:https://github.com/ borisdayma / dalle-mini在線體驗(yàn):https://huggingface.co/ spaces / dalle-mini / dalle-mini視頻講解:https://youtu.be/ K3bZXXjW788短篇分析:https://www.louisbouchard.ai/ dalle-mini/NLLB:不落下任何一種語言Meta AI 發(fā)布的這款 NLLB-200 模型,模型命名理念來自「不鐘山下任何一種語言」(No Language Left Behind),在 200 多種語言上實(shí)現(xiàn)了任意互譯。研究白雉亮點(diǎn)在于:研究者讓多數(shù)低資源語言訓(xùn)練提升多個(gè)量級,同時(shí)實(shí)現(xiàn)了 200 + 語言翻譯的 SOTA 結(jié)果。論文鏈接:https://research.facebook.com/ publications / no-language-left-behind/項(xiàng)目地址:https://github.com/ facebookresearch / fairseq / tree / nllb在線體驗(yàn):https://nllb.metademolab.com/視頻講解:https://youtu.be/ 2G4NeG17Eis短篇分析:https://www.louisbouchard.ai/ no-language-left-behind/Dual-Shutter 光學(xué)振動(dòng)傳感系統(tǒng)聲音也能被看見?這篇獲得 CVPR 2022 最佳論文榮譽(yù)獎(jiǎng)的研究,提出了一種新壽麻的 Dual-Shutter 方法,通過使用「慢速」相機(jī)(130FPS)同時(shí)檢測多個(gè)場景源的高速(高達(dá) 63kHz)表面振動(dòng),并通過捕獲由音頻源引起的動(dòng)來實(shí)現(xiàn)。由此便可以實(shí)現(xiàn)樂的分離、噪音的消除等各種需。論文鏈接:https://openaccess.thecvf.com/ content / CVPR2022 / papers / Sheinin_Dual-Shutter_Optical_Vibration_Sensing_CVPR_2022_paper.pdf項(xiàng)目地址:https://imaging.cs.cmu.edu/ vibration/視頻講解:https://youtu.be/ n1M8ZVspJcs短篇分析:https://www.louisbouchard.ai/ cvpr-2022-best-paper/Make-A-Scene:基于場景且有人類先驗(yàn)的文本到像生成Make-A-Scene 不僅僅是「另一個(gè) DALL?E」。雖然 DALL?E 可以根據(jù)文本提示生成隨機(jī)圖像禮記這確實(shí)很酷,但同時(shí)也限了用戶對生成結(jié)果的控制。而 Meta 的目標(biāo)是推動(dòng)創(chuàng)意表達(dá),將這種文本到圖像的趨勢之前的草圖到圖像模型相結(jié)合從而產(chǎn)生「Make-A-Scene」:文本和草圖條件圖像生成之間的奇妙夔牛合。論文鏈:https://arxiv.org/ abs / 2203.13131視頻講解:https://youtu.be/ K3bZXXjW788短篇分析:https://www.louisbouchard.ai/ make-a-scene/BANMo:從任意視頻中構(gòu)建目標(biāo) 3D 動(dòng)畫模型基于 Meta 的這項(xiàng)研究,你只需給定捕獲女尸變形對的任意視頻,比如上傳幾個(gè)小小狗的視頻,BANMo 便可通過將來自數(shù)千張圖像的 2D 線索整合到規(guī)范空間中,進(jìn)而重建一個(gè)可編輯的動(dòng)畫 3D 模型,且無需預(yù)定義形狀模板論文鏈接:https://arxiv.org/ abs / 2112.12761項(xiàng)目地址:https://github.com/ facebookresearch / banmo視頻講解:https://youtu.be/ jDTy-liFoCQ短篇分析:https://www.louisbouchard.ai/ banmo/用潛在擴(kuò)散模型進(jìn)行高分辨率圖像合成年大火的圖像生成模型 DALL?E、Imagen 以及強(qiáng)勢出圈的 Stable Diffusion,這些強(qiáng)大的圖像生成模型有什么共同點(diǎn)?除高計(jì)算成本、大量訓(xùn)練時(shí)間之,它們都基于相同的擴(kuò)散機(jī)制擴(kuò)散模型最近在大多數(shù)圖像任中取得了 SOTA 結(jié)果,包括使用 DALL?E 的文本到圖像,還有許多其他與隋書像成相關(guān)的任務(wù),如圖像修復(fù)、格轉(zhuǎn)換或圖像超分辨率。論文接:https://arxiv.org/ abs / 2112.10752項(xiàng)目地址:https://github.com/ CompVis / latent-diffusion視頻講解:https://youtu.be/ RGBNdD3Wn-g短篇分析:https://www.louisbouchard.ai/ latent-diffusion-models/PSG:基于場景的圖像生成模型AI 可以幫你準(zhǔn)確識(shí)別圖像中的物體玃如但是理解物體與環(huán)境間的關(guān)系則沒有那么輕松。為,來自南洋理工對研究人員提了一種基于全景分割的全場景生成(panoptic scene graph generation,即 PSG)任務(wù)。相比于傳統(tǒng)基于檢測術(shù)器的景圖生成,PSG 任務(wù)要求全面地輸出圖像中的所有關(guān)系(括物體與物體間關(guān)系,物體與景間關(guān)系,背景與背景間關(guān)系,并用準(zhǔn)確的分割塊來定位物。論文鏈接:https://arxiv.org/ abs / 2207.11247項(xiàng)目地址:https://psgdataset.org/在線應(yīng)用:https://huggingface.co/ spaces / ECCV2022 / PSG視頻講解:https://youtu.be/ cSsE_H_0Cr8短篇分析:https://www.louisbouchard.ai/ psg/利用文本反轉(zhuǎn)實(shí)現(xiàn)文本到圖像的個(gè)化生成今年各大廠的圖像生成型可謂是八仙過海各顯神通,是如何讓模型生成特定風(fēng)格的像作品呢?來自特拉維夫大學(xué)學(xué)者和英偉達(dá)合作推出了一款性化圖像生成模型,可以 DIY 你想要得到的圖像。論文鏈接:https://arxiv.org/ abs / 2208.01618項(xiàng)目地址:https://textual-inversion.github.io/視頻講解:https://youtu.be/ f3oXa7_SYek短篇分析:https://www.louisbouchard.ai/ imageworthoneword/用于通用視頻識(shí)別的語言圖像預(yù)訓(xùn)練型視覺文本模型的學(xué)習(xí)毫無疑已經(jīng)取得了巨大成功,然而如將這種新的語言圖像預(yù)訓(xùn)練方擴(kuò)展到視頻領(lǐng)域仍然是一個(gè)懸未決的問題。來自微軟和中科的學(xué)者提出了一種簡單而有效方法使預(yù)訓(xùn)練的語言圖像模型接適應(yīng)視頻識(shí)別,而不是從頭始預(yù)訓(xùn)練新模型。論文鏈接:https://arxiv.org/ abs / 2208.02816項(xiàng)目地址:https://github.com/ microsoft / VideoX / tree / master / X-CLIP視頻講解:https://youtu.be/ seb4lmVPEe8短篇分析:https://www.louisbouchard.ai/ general-video-recognition/Make-A-Video:一鍵文本生成視頻模型畫家在布上盡情作畫,如此清晰流暢畫面,你能想到視頻的每一幀是 AI 生成的嗎?MetaAI 推出的 Make-A-Video,只需簡單輸入幾個(gè)文字,便可在幾秒內(nèi)生成不同格的視頻,說成「視頻版 DALL?E」也不為過。論文鏈接:https://arxiv.org/ abs / 2209.14792視頻講解:https://youtu.be/ MWwESVyHWto短篇分析:https://www.louisbouchard.ai/ make-a-video/Whisper:大規(guī)模弱監(jiān)督語音識(shí)別模型你沒有想過有一個(gè)翻譯軟件可以速翻譯視頻中的語音,甚至是些你自己都聽不懂的語言?OpenAI 開源的 Whisper 恰好就能做到這一點(diǎn)。Whisper 在超過 68 萬小時(shí)的多語種數(shù)據(jù)上訓(xùn)練,識(shí)別嘈雜背景下的多語種聲音轉(zhuǎn)化為文字,此外還可勝任專術(shù)語的翻譯。論文鏈接:https://arxiv.org/ abs / 2212.04356項(xiàng)目地址:https://github.com/ openai / whisper視頻講解:https://youtu.be/ uFOkMme19Zs短篇解析:https://www.louisbouchard.ai/ whisper/DreamFusion:用 2D 圖像生成 3D 模型文本能生成圖像、視頻,還有 3D 模型~谷歌推出的 DreamFusion 通過使用預(yù)訓(xùn)練的 2D 文本到圖像擴(kuò)散模型可一鍵生成 3D 模型,在數(shù)十億圖像文本對上訓(xùn)練的擴(kuò)散模型動(dòng)了文本到 3D 模型合成的最新突破。論文鏈接:https://arxiv.org/ abs / 2209.14988視頻講解:https://youtu.be/ epuU0VRIcjE短篇解析:https://www.louisbouchard.ai/ dreamfusion/Imagic:基于擴(kuò)散模型的真實(shí)圖像編輯方法使用 DALL?E 等文本圖像生成模型,只需輸長右一行文字便能得到想的圖片,但 AI 生成的圖像有時(shí)候并不那么完美。來自谷、以色列理工學(xué)院、魏茨曼科研究所的研究者介紹了一種基擴(kuò)散模型的真實(shí)圖像編輯方法 ——Imagic,只用文字就能實(shí)現(xiàn)真實(shí)照片的 PS。例如,我們可以改變一個(gè)人的修鞈勢構(gòu)圖同時(shí)保留其原始特征,或我想讓一只站立的狗坐下,讓只鳥展開翅膀。論文鏈接:https://arxiv.org/ abs / 2210.09276項(xiàng)目地址:https://imagic-editing.github.io/視頻講解:https://youtu.be/ gbpPQ5kVJhM短篇分析:https://www.louisbouchard.ai/ imagic/eDiffi:更高品質(zhì)的文本圖像合成模型 DALL?E 和 Stable Diffusion 更強(qiáng)的圖像合成模型來了!這就英偉達(dá)的 eDiffi,它可以更準(zhǔn)確地生成更高品質(zhì)的圖,此外加入畫筆模具,可以為的作品增加更多創(chuàng)造性和靈活。論文鏈接:https://arxiv.org/ abs / 2211.01324項(xiàng)目地址:https://deepimagination.cc/ eDiff-I/視頻講解:https://youtu.be/ grwp-ht_ixo短篇分析:https://www.louisbouchard.ai/ ediffi/Infinite Nature:從單幅圖像中學(xué)習(xí)自然場景的無限視圖生成你有有想過,隨手拍一張照片然后像打開一扇門一樣飛進(jìn)圖片里?來自谷歌和康奈爾大學(xué)的學(xué)將這一想象變?yōu)榱爽F(xiàn)實(shí),這就 InfiniteNature-Zero,他可從單幅圖像中生成無限制的自然土螻景視圖論文鏈接:https://arxiv.org/ abs / 2207.11148項(xiàng)目地址:https://infinite-nature.github.io/視頻講解:https://youtu.be/ FQzGhukV-l0短篇分析:https://www.louisbouchard.ai/ infinitenature-zeroGalactica:用于科學(xué)的大語言模型Meta 開發(fā)的 Galactica 是一種大型語言模型,其大小與 GPT-3 相當(dāng),但它擅長的領(lǐng)域是科學(xué)知識(shí)。該模型可編寫剡山府皮書、新聞評論、維基百科頁和代碼,它還知道如何引用以如何編寫方程式。這對人工智和科學(xué)來說是一件大事。論文接:https://arxiv.org/ abs / 2211.09085視頻講解:https://youtu.be/ 2GfxkCWWzLU短篇分析:https://www.louisbouchard.ai/ galactica/RAD-NeRF:基于音頻空間分解的實(shí)時(shí)人像合模型自從 DeepFake 和 NeRF 的出現(xiàn),AI 換臉?biāo)坪跻呀?jīng)是司空見慣了,有個(gè)問題,AI 換的臉有時(shí)會(huì)因?yàn)閷Σ簧献煨投娥W。RAD-NeRF 的出現(xiàn)可以解決這一問題,它可以對視頻中伯服出的說話者進(jìn)行實(shí)時(shí)的人像合成此外還支持自定義頭像。論文接:https://arxiv.org/ abs / 2211.12368項(xiàng)目地址:https://me.kiui.moe/ radnerf/ChatGPT:為對話優(yōu)化的語言模型2022 年度 AI 的重磅作品怎么能少了 ChatGPT,這個(gè)已經(jīng)火遍全網(wǎng)并已經(jīng)被網(wǎng)友開發(fā)出寫小黃、敲代碼等各種應(yīng)用的萬能模,如果你還不了解它,那就快看看!視頻講解:https://youtu.be/ AsFgn8vU-tQ短篇分析:https://www.louisbouchard.ai/ chatgpt/可直接用于生產(chǎn)使用的視頻人螐渠 re-aging雖然當(dāng)下計(jì)算機(jī)視覺模型可以對人臉的年錫山進(jìn)行生、風(fēng)格遷移等,但這也只是看來炫酷,在實(shí)際應(yīng)用中卻幾乎作用,現(xiàn)有的技術(shù)通常存在著部特征丟失、分辨率低和在后視頻幀中結(jié)果不穩(wěn)定的問題,往需要人工二次編輯。最近迪尼發(fā)布了第一個(gè)可實(shí)用的、完自動(dòng)化的、可用于生產(chǎn)使用的頻圖像中 re-age 人臉的方法 FRAN(Face Re-Aging Network),正式宣告電影中靠化妝師改變演員年齡視覺效果的技落幕。論文鏈接:https://dl.acm.org/ doi / pdf / 10.1145/3550454.3555520項(xiàng)目地址:https://studios.disneyresearch.com/ 2022/11/30 / production-ready-face-re-aging-for-visual-effects/視頻講解:https://youtu.be/ WC03N0NFfwk短篇分析:https://www.louisbouchard.ai/ disney-re-age/參考資料:https://www.louisbouchard.ai/2022-ai-recap/本文來自微信公眾號(hào):新智元 (ID:AI_era?
IT之家 1 月 6 日消息,據(jù)聯(lián)想官方消宣山,聯(lián)想今日海外布的?ThinkBook 16p 新品筆記本的額頭處可安裝磁吸式模塊竹山配件,如高分辨率攝頭、補(bǔ)光燈以及 LTE 模塊。官方表示,這些磁吸配件采用了想自研的通信協(xié)議,可滿足大蜂合公場景下的用戶多元需求。屏幕面,ThinkBook 16p Gen 4 配備了?3.2K 120 Hz mini-LED 屏,覆蓋 100% DCI-P3 色域,還可選?2.5K 60 Hz IPS 顯示屏,覆蓋 100% sRGB 色域。配置方面,這款筆記本搭載了 13 代酷睿 H 系列處理器,最高可選酷睿?i9,顯卡最高可選?RTX 4060,內(nèi)存可選?16 GB DDR5,筆記本內(nèi)置雙 M.2 插槽。IT之家了解到,聯(lián)想 ThinkBook 16p Gen 4 將于 2023 年 6 月上市,起價(jià)為 1399 歐元(約 10157 元人民幣)。