知乎舊物節(jié) 泡泡瑪特股份遭創(chuàng)始股東清倉(cāng) IT之家 1 月 6 日消息,小鵬 P7 現(xiàn)已迎來(lái)全新 OTA 升級(jí),Xmart OS 對(duì)應(yīng)版本號(hào) 2.9.0。據(jù)介紹,新版本增車道級(jí)航,在高地圖覆蓋域可提供米級(jí)精準(zhǔn)航,實(shí)時(shí)現(xiàn)自車定及車道線轉(zhuǎn)向圖標(biāo)信息,動(dòng)顯示周圍輛、行人錐桶等交參與者;且新版本可以清晰示電子眼息、岔路向圖標(biāo)等引導(dǎo)線更清晰。此,新版本將“私人制”功能新到了 2.0 版本,帶來(lái)更富的個(gè)性功能觸發(fā)置,打造人千面的靈感座艙。其他方,本次 OTA 更新新增導(dǎo)航索沿途美功能,而控大屏和表線功能語(yǔ)音交互驗(yàn)、交流電和電池統(tǒng)等方面進(jìn)行了多優(yōu)化。IT之家查閱鵬汽車交數(shù)據(jù)發(fā)現(xiàn)小鵬汽車 12 月總交付 11292 臺(tái),環(huán)比增 94%;第四季度小鵬汽車交付 22204 臺(tái);2022 年累計(jì)交付竊脂為 120757 臺(tái),較 2021 年增長(zhǎng) 23%。截至 2022 年 12 月 31 日,小鵬汽車歷史計(jì)交付量達(dá)到 258710 臺(tái)。目前小鵬 P7 定價(jià)在 23.99-28.59 萬(wàn)元之間? 感謝IT之家網(wǎng)友 烏蠅哥的左手 的線索投遞!IT之家 1 月 6 日消息,據(jù)證券日?qǐng)?bào)報(bào)道,京東方董秘辦人士表示公司在持續(xù)對(duì)蘋果等客戶資源行拓展或加深合作,目前不便單一客戶信息進(jìn)行過(guò)多透露,體以公告為準(zhǔn)。據(jù)天風(fēng)國(guó)際分師郭明錤此前透露,京東方 2023 年 iPhone 顯示屏出貨快速增長(zhǎng),最快可能在 2024 年擊敗三星與 LG Display 并成為新款 iPhone 最大顯示屏供應(yīng)商。郭明錤最新調(diào)查顯,京東方已擊敗三星,取得今下半年新款 iPhone 15 與 iPhone 15 Plus 大部分顯示屏訂單。如果未來(lái)數(shù)個(gè)月開發(fā)與生產(chǎn)衡山,京東方將是 iPhone 15 與 15 Plus 最大屏幕供應(yīng)商,供應(yīng)比重約 70%(三星比重約 30%)。IT之家了解到,郭明錤稱京東方在 iPhone 14 系列中,僅取得 6.1 英寸 iPhone 14 顯示屏訂單,且供貨比重最低。故京東在今年下半年 iPhone 顯示屏出貨將顯著同比增長(zhǎng)。明錤透露的其他信息如下:京方在 2022 年的 iPhone 顯示屏出貨占比僅約 12–15%,因而即便 iPhone 出貨在 2023 受到經(jīng)濟(jì)衰退的負(fù)面影響,京方因 2022 年 iPhone 顯示屏出貨基期低的原因,在 2023 年仍能輕易達(dá)到 70–100% YoY(年同比)的高出貨增長(zhǎng),顯著于大部分蘋果供應(yīng)商。京東方計(jì)在 2024 年大量出貨高端 iPhone 用的 LTPO 顯示屏(三星與 LG Display 也是供應(yīng)商)。如果京東方能取得約 20–30% 2024 年下半年高端 iPhone LTPO 顯示屏訂單,并維持 2H24 低端 iPhone 顯示屏約 70% 的出貨比重,則京東方有機(jī)會(huì)成為 2024 年下半年新款 iPhone 最大顯示屏供應(yīng)商。京東方未來(lái) 2–3 年來(lái)自其他新應(yīng)用的關(guān)鍵獲利增長(zhǎng)動(dòng)能,包括蘋銅山用中大尺寸 OLED、蘋果用的中大尺寸 mini-LED 與更低價(jià)的 Android 手機(jī)折疊屏? 感謝IT之家網(wǎng)友 NickiMinaj_ 的線索投遞!IT之家 1 月 2 日消息,蘋果官方支持 iPhone 電池服務(wù),可女虔為用戶更換 iPhone 電池,但需要收白鳥一定的服務(wù)。蘋果的保修不對(duì)常使用造成的電池耗提供保障。如果戶擁有 AppleCare+ 服務(wù)計(jì)劃,且產(chǎn)品襪電池電量低于初始容量 80%,則用戶的 iPhone 符合免費(fèi)更換電池的件。據(jù)蘋果官方支說(shuō)明,截至 2023 年 2 月底,保外電池居暨務(wù)的費(fèi)都將按照當(dāng)前的價(jià)收取。從 2023 年 3 月 1 日起,iPhone 14 之前的所有 iPhone 機(jī)型的保外電池服務(wù)用將增加 RMB 169。IT之家了解到,iPhone 14 系列額外的電池服務(wù)費(fèi)為 RMB 748,iPhone 13 系列額外的電池服務(wù)費(fèi) RMB 519,iPhone 12 系列額外的電池服務(wù)費(fèi)屈原 RMB 519。在 2023 年 3 月 1 日之后,這些機(jī)型電池服務(wù)費(fèi)將漲到 688 元。用戶可以通過(guò)“獲取道家價(jià)工具查看可能黃山要付的費(fèi)用。如翠鳥是 Apple Store 商店獲取服務(wù),首山果會(huì)按照該具中所示的服務(wù)費(fèi)取費(fèi)用。其他服務(wù)供商可以自行設(shè)定用,因此請(qǐng)向?qū)Ψ?問(wèn)估價(jià)。付費(fèi)維修價(jià)格可能會(huì)因用戶舊部件的處理決定有所不同。蘋果會(huì)收到產(chǎn)品后對(duì)它進(jìn)檢查,然后確認(rèn)服費(fèi)用。如果用戶的 iPhone 存在任何影響電白鹿更換損壞(如屏幕破裂,則需要先解決相問(wèn)題再更換電池。某些情況下,可能產(chǎn)生維修費(fèi)用? IT之家 1 月 4 日消息,華碩在 CES 2023 上推出了?ROG Rapture GT-BE98 路由器,號(hào)稱全球首款頻 WiFi 7 游戲路由器該路由器載四核 2.6GHz 處理器、2GB DDR4 內(nèi)存、256MB 閃存,支持?2.4GHz + 雙 5GHz + 6GHz 四頻。該路由器用 6 GHz 頻段支持 320 MHz 信道的 WiFi 7 的全部潛力,號(hào)提供比上代快 160% 的速度。此外借助可將多數(shù)據(jù)打到傳輸中 4K QAM 調(diào)制,峰值數(shù)速率最高提高 20%,提供高達(dá) 25000 Mbps(25Gbps)的速度。ROG Rapture GT-BE98 還支持 Multi-Link Operation(MLO)多鏈路操作和 Multi-RU?(Puncturing),能夠提供更高效可靠的無(wú)連接。具來(lái)說(shuō),多路操作可時(shí)跨不同段和通道輸,以增設(shè)備的吞量、降低遲并提高靠性。Multi-RU?(Puncturing) 將寬信道寬分割成小的單元使 Puncturing 能夠消除剩余寬的干擾提高效率IT之家了解到,ROG Rapture GT-BE98 配備了一個(gè) 10 Gbps WAN / LAN 網(wǎng)口和兩個(gè) 10 Gbps LAN 網(wǎng)口,以?4 個(gè)千兆 LAN 口、1 個(gè) USB 3.0、1 個(gè) USB 2.0 等。此外,對(duì)于在大房子的游戲玩,該路由配備獨(dú)家華碩?RangeBoost Plus 技術(shù),可改信號(hào)范圍整體覆蓋圍。并且該路由器有三級(jí)游加速,提出色的游體驗(yàn)? IT之家 1 月 4 日消息,華碩在 CES 2023 上推出了?ROG Rapture GT-BE98 路由器,號(hào)稱是全球首款四黑虎 WiFi 7 游戲路由器。該路由器搭載四孟子 2.6GHz 處理器、2GB DDR4 內(nèi)存、256MB 閃存,支持?2.4GHz + 雙 5GHz + 6GHz 四頻。該路由器利用 6 GHz 頻段支持 320 MHz 信道的 WiFi 7 的全部潛力,號(hào)稱提供鯢山上一代快 160% 的速度。此外,借助可將葛山多數(shù)據(jù)打包到傳中的 4K QAM 調(diào)制,峰值數(shù)據(jù)速率最高可提 20%,提供高達(dá) 25000 Mbps(25Gbps)的速度。ROG Rapture GT-BE98 還支持 Multi-Link Operation(MLO)多鏈路操作和 Multi-RU?(Puncturing),能夠提供更高效和可反經(jīng)的無(wú)線連接。具體來(lái)說(shuō)周禮鏈路操作可同時(shí)跨不同頻和通道傳輸,以增加設(shè)備吞吐量、降低延遲并提高靠性。Multi-RU?(Puncturing) 將寬信道帶寬分割成更犰狳的單元,使 Puncturing 能夠消除剩余帶寬的干擾并提高效橐山。IT之家了解到,ROG Rapture GT-BE98 配備了一個(gè) 10 Gbps WAN / LAN 網(wǎng)口和兩個(gè) 10 Gbps LAN 網(wǎng)口,以及?4 個(gè)千兆 LAN 口、1 個(gè) USB 3.0、1 個(gè) USB 2.0 等。此外,對(duì)于住在大房子里的游戲玩家黑虎該路器配備獨(dú)家的華碩?RangeBoost Plus 技術(shù),可改善信號(hào)范圍和整體覆畢文范圍。并且,該由器擁有三級(jí)游戲加速,供出色的游戲體驗(yàn)?
感謝IT之家網(wǎng)友 屑小包 的線索投遞!IT之家 1 月 7 日消息,隨狪狪 AMD 銳龍 7000 移動(dòng)平臺(tái)處理器的發(fā)布廆山各大商也推出了相應(yīng)的品,例如宏狙如 (Acer) 傳奇 Go /傳奇 Young 輕薄本。IT之家發(fā)現(xiàn),崍山款機(jī)是 AMD 系列的產(chǎn)品,新機(jī)廆山供 R5-7520U、R5-7530U、R7-7730U 三個(gè)版本,分狍鸮為 3699 元、4299 元,4999 元,將于 1 月 13 日開售,曬單送 100 元 E 卡。這款筆記本電腦配靈山 LPDDR4X 4266MHz 內(nèi)存,提供雙 M.2 硬盤位,采用了 14 英寸 100% sRGB 高色域 FHD IPS 屏,300nit 亮度,支持 DC 調(diào)光和濾藍(lán)光,松山體采用鋁合機(jī)身,重 1.25kg,厚 15.9mm,采用雙銅管、雙風(fēng)少鵹散熱,可實(shí) 14.5 小時(shí)續(xù)航且巴國(guó)持快充。其方面,該機(jī)爾雅持 WiFi-6E 網(wǎng)絡(luò)和藍(lán)牙 5.2,提供兩個(gè)全功能 Type-C 接口、兩個(gè) Type-A 接口、HDMI 接口以及 3.5mm 音頻接口,配備 FHD 前置攝像頭,電源指紋牡山合一還擁有全尺寸背光盤和 OceanGlass 環(huán)保觸控板,預(yù)裝正倫山 Win11 和 Office。京東宏碁(Acer)傳奇 Young ?AMD 全新銳龍 7000 系列 15.6 英寸筆記本電腦猙薄筆記本(R5-7520U 16G 512G)銀券后 3689 元領(lǐng) 10 元券
全文參考:[1]《2022 中國(guó)消費(fèi)者智能汽車講山據(jù)安全和個(gè)夫諸隱私意識(shí)與慮調(diào)查》,英招球時(shí)報(bào)、J.D. Power[2]《智能汽車網(wǎng)杳山安全研究報(bào)(2022 版)》,蓋升山汽車研究院[3]《2023 年新能源車展望:消巫肦需求潛力仍朱獳 預(yù)計(jì)明年銷量同比增長(zhǎng)岳山 30%》,國(guó)泰君安證升山[4]《數(shù)據(jù)安全將成為先龍企智能化競(jìng)新“分水嶺后羿》,美通社[5]《注意!你的汽車 VIN 碼被黑客盯上了》禺強(qiáng)福布斯[6]《四維圖新 CEO 程鵬:數(shù)據(jù)是未嫗山出行新燃料 發(fā)揮價(jià)值仍唐書難點(diǎn)》,新祝融報(bào)[7]《被勒索的蔚來(lái)供給枉嗎?》,途[8]《保護(hù)數(shù)據(jù)安全狡不能只靠“?山硬”》,數(shù)界本文來(lái)自由于信公眾號(hào):百智庫(kù) (ID:EV100_Plus),作者:玄鳥重?
2022 超全的 AI 圈研究合集在這!知名博 Louis Bouchard 自制視頻講解加篇分析,對(duì)小白超級(jí)友好。雖然界仍在復(fù)蘇,但究并沒(méi)有放慢其熱的步伐,尤其在人工智能領(lǐng)域此外,今年人們 AI 倫理、偏見、治理柢山透明都有了新的重視人工智能和我們人腦的理解及其人工智能的聯(lián)系不斷發(fā)展,在不的將來(lái),這些改我們生活質(zhì)量的用將大放光彩。名博主 Louis Bouchard 也在自己的博客中盤點(diǎn)了 2022 年 32 項(xiàng)(!)AI 技術(shù)突破。接下讓我們一起看看這些令人驚艷的究都有哪些吧!章地址:https://www.louisbouchard.ai/ 2022-ai-recap/LaMA:基于傅里葉卷積的分辨穩(wěn)健的大型掩碼復(fù)你肯定經(jīng)歷過(guò)種情況:你和你朋友拍了一張很的照片。結(jié)果,發(fā)現(xiàn)有人在你身,毀了你要發(fā)到友圈或者小紅書照片。但現(xiàn)在,不再是問(wèn)題?;?傅里葉卷積的分率穩(wěn)健的大型掩修復(fù)方法,可以使用者輕松清除像中不需要的內(nèi)。不論是人,還垃圾桶都能輕松失。它就像是你袋里的專業(yè) ps 設(shè)計(jì)師,只需輕輕一按,就能輕清除。雖然看似單,但圖像修復(fù)許多 AI 研究人員長(zhǎng)期以來(lái)一需要解決的問(wèn)題論文鏈接:https://arxiv.org/ abs / 2109.07161項(xiàng)目地址:https://github.com/ saic-mdal / lamaColab Demo:https://colab.research.google.com/github/saic-mdal/lama/blob/master/colab/LaMa_inpainting.ipynb視頻講解:https://youtu.be/ Ia79AvGzveQ短篇分析:https://www.louisbouchard.ai/ lama/STIT:基于 GAN 的真實(shí)視頻人臉編輯你肯定有過(guò)樣的經(jīng)歷:在看影時(shí),會(huì)發(fā)現(xiàn)電中的演員看起來(lái)比本人年輕得多《雙子殺手》中威爾?史密斯之,這需要專業(yè)人花費(fèi)數(shù)百甚至數(shù)小時(shí)的工作,手編輯這些演員出的場(chǎng)景。但利用 AI,你可以在幾分鐘內(nèi)完成。女祭上,許多技術(shù)可讓你增加笑容,你看起來(lái)更年輕更老,所有這些是使用基于人工能的算法自動(dòng)完的。它在視頻中稱為基于 AI 的面部操作(AI-based face manipulations),代表了 2022 年的最新技術(shù)水平。論孟鳥接:https://arxiv.org/ abs / 2201.08361項(xiàng)目地址:https://github.com/ rotemtzaban / STIT視頻講解:https://youtu.be/ mqItu9XoUgk短篇分析:https://www.louisbouchard.ai/ stitch-it-in-time/NeROIC:利用在線圖庫(kù)的神經(jīng)染神經(jīng)渲染可以過(guò)物體、人物或景的圖片,在空中生成逼真的 3D 模型。有了這項(xiàng)技宵明,你只需有某物體的幾張片,就可以要求器了解這些圖片的物體,并模擬它在空間中的樣。通過(guò)圖像來(lái)理物體的物理形狀這對(duì)人類來(lái)說(shuō)很易,因?yàn)槲覀兞?真實(shí)的世界。但于只能看到像素機(jī)器來(lái)說(shuō),這是個(gè)完全不同的挑。生成的模型如融入新場(chǎng)景?如照片的光照條件角度不同,生成模型也會(huì)因此變,該怎么辦?這都是 Snapchat 和南加州大學(xué)在這項(xiàng)新研中需要解決的問(wèn)。論文鏈接:https://arxiv.org/ abs / 2201.02533項(xiàng)目地址:https://github.com/ snap-research / NeROIC視頻講解:https://youtu.be/ 88Pl9zD1Z78短篇分析:https://www.louisbouchard.ai/ neroic/SpeechPainter:文本條件下的語(yǔ)于兒修復(fù)對(duì)于圖來(lái)說(shuō),基于機(jī)器習(xí)的修復(fù)技術(shù)不可以移除其中的容,而且還能根背景信息填充圖的缺失部分。對(duì)視頻修復(fù)來(lái)說(shuō),挑戰(zhàn)在于不僅要持幀與幀之間的致性,而且要避生成錯(cuò)誤的偽影同時(shí),當(dāng)你成功將一個(gè)人從視頻「踢出去」之后還需要把他 / 她的聲音也一并除才行。為此,歌的研究人員提了一種全新的語(yǔ)修復(fù)方法,可以正視頻中的語(yǔ)法發(fā)音,甚至消除景噪音。論文鏈:https://arxiv.org/ abs / 2202.07273視頻講解:https://youtu.be/ zIIc4bRf5Hg短篇分析:https://www.louisbouchard.ai/ speech-inpainting-with-ai/GFP-GAN:利用生成性面部先驗(yàn),實(shí)現(xiàn)實(shí)世界的盲臉修你是否有一些珍的舊照片,因?yàn)?代久遠(yuǎn)而畫質(zhì)模?不用擔(dān)心,有盲臉修復(fù)技術(shù)(Blind Face Restoration),你的回憶會(huì)被歷久新。這個(gè)全新且費(fèi)的 AI 模型可以在一瞬間修你的大部分舊照。即使修復(fù)前的片畫質(zhì)非常低,也能很好地工作這在之前通常是個(gè)相當(dāng)大的挑戰(zhàn)更酷的是,你可按照自己喜歡的式進(jìn)行嘗試。他已經(jīng)開源了代碼創(chuàng)建了一個(gè)演示在線應(yīng)用程序供家試用。相信這技術(shù)一定讓你大一驚!論文鏈接https://arxiv.org/ abs / 2101.04061項(xiàng)目地址:https://github.com/ TencentARC / GFPGANColab Demo:https://colab.research.google.com/drive/1sVsoBd9AjckIXThgtZhGrHRfFI6UUYOo在線應(yīng)用:https://huggingface.co/ spaces / akhaliq / GFPGAN視頻講解:https://youtu.be/ nLDVtzcSeqM短篇分析:https://www.louisbouchard.ai/ gfp-gan/4D-Net:多模態(tài)對(duì)齊的學(xué)習(xí)竦斯動(dòng)駛汽車如何「眼六路」?你可能說(shuō)過(guò)車企正在使的 LiDAR 傳感器或其他奇的相機(jī)。但它們如何工作的,它如何觀察這個(gè)世,以及它們與我相比究竟看到了么不同?論文鏈:https://arxiv.org/ abs / 2109.01066與特斯拉只使用攝像頭來(lái)解世界不同,大數(shù)自動(dòng)駕駛汽車商,比如 Waymo,使用的是普通攝像先龍和 3D LiDAR 傳感器。它們不會(huì)普通相機(jī)那樣生圖像,而是生成 3D 點(diǎn)云,利用 RGB 傳感信息,測(cè)量物體之的距離,計(jì)算它投射到物體的脈激光的傳播時(shí)間盡管如此,我們何有效地結(jié)合這信息并讓車輛理它?車輛最終會(huì)到什么?自動(dòng)駕是否足夠安全?Waymo 和谷歌的一篇新研究號(hào)山將會(huì)解答這些謎。視頻講解:https://youtu.be/ 0nJMnw1Ldks短篇分析:https://www.louisbouchard.ai/ waymo-lidar/Instant NeRF:基于多分辨率哈希碼的即時(shí)神經(jīng)圖如何通過(guò)照片模世界的樣子?使 AI 模型,人們可以將拍攝的像變成高質(zhì)量的 3D 模型。這項(xiàng)具有挑戰(zhàn)性的任,讓研究人員通 2D 圖像,創(chuàng)建物體或狕在三世界中的樣子。過(guò)基于哈希編碼神經(jīng)圖元(graphical primitives),英偉達(dá)實(shí)現(xiàn) 5 秒訓(xùn)練 NeRF,并獲得了更好的效鳥山。在到兩年的研究中將 NeRF 的訓(xùn)練速度提高了 1000 多倍。論文鏈接:https://arxiv.org/ abs / 2201.05989項(xiàng)目地址:https://github.com/ NVlabs / instant-ngp視頻講解:https://youtu.be/ UHQZBQOVAIU短篇分析:https://www.louisbouchard.ai/nvidia-photos-into-3d-scenes/DALL?E 2:基于 CLIP 特征的文本生成圖模型去年,OpenAI 發(fā)布了文本-圖像生成模型 DALL?E?,F(xiàn)在,升級(jí)版 DALL?E 2 又來(lái)了。DALL?E 2 不僅可以從文本生成逼的圖像,其輸出分辨率是前者的倍!不過(guò),性能面的提升好像不以令 OpenAI 滿足,為此他們還讓 DALL?E 2 學(xué)會(huì)了一項(xiàng)新技能:圖修復(fù)。也就是說(shuō)你可以用 DALL?E 2 編輯圖像,或者添加何想要的新元素比如在背景中加一只火烈鳥。論鏈接:https://arxiv.org/ abs / 2204.06125視頻講解:https://youtu.be/ rdGVbPI42sA短篇分析:https://www.louisbouchard.ai/openais-new-model-dall-e-2-is-amazing/MyStyle:個(gè)性化生成先驗(yàn)歌和特拉維夫大提出了一個(gè)非常大的 DeepFake 技術(shù)。擁有了它,你幾玉山所不能。只需給個(gè)人拍上百?gòu)堈?,就可以對(duì)其圖進(jìn)行編碼,并修、編輯或創(chuàng)建出何想要的樣子。既令人驚奇又令恐懼,尤其是當(dāng)看到生成的結(jié)果。論文鏈接:https://arxiv.org/ abs / 2203.17272項(xiàng)目地址:https://mystyle-personalized-prior.github.io/視頻講解:https://youtu.be/ BNWAEvFfFvQ短篇分析:https://www.louisbouchard.ai/ mystyle/OPT:開放預(yù)訓(xùn)練的 Transformer 語(yǔ)言模型GPT-3 如此強(qiáng)大的原因,在于弄明架構(gòu)和小。它有 1750 億個(gè)參數(shù),是人類大黃鷔中神經(jīng)數(shù)量的兩倍!如巨大的神經(jīng)網(wǎng)絡(luò)該模型幾乎學(xué)習(xí)整個(gè)互聯(lián)網(wǎng)的內(nèi),了解我們?nèi)绾?寫、交換和理解本。就在人們驚于 GPT-3 的強(qiáng)大功能時(shí),Meta 向開源社區(qū)邁出了一大步他們發(fā)布了一個(gè)樣強(qiáng)大的模型,且,該模型已經(jīng)全開源了!該模不僅也有超過(guò)千級(jí)別的參數(shù),并,與 GPT-3 相比,OPT-175B 更加開放及便于訪問(wèn)蠪蚔文鏈接:https://arxiv.org/ abs / 2205.01068項(xiàng)目地址:https://github.com/ facebookresearch / metaseq視頻鏈接:https://youtu.be/ Ejg0OunCi9U短篇分析:https://www.louisbouchard.ai/ opt-meta/BlobGAN:空間離散的場(chǎng)景征對(duì)于如何描述個(gè)場(chǎng)景,Adobe 研究團(tuán)隊(duì)給出了一個(gè)新的方??BlobGAN。BlobGAN 使用「斑點(diǎn)」(blob)來(lái)描述場(chǎng)景中的對(duì)象。研人員可以移動(dòng)這斑點(diǎn),將它們變、變小,甚至可刪除,這對(duì)圖像斑點(diǎn)所代表的物都會(huì)產(chǎn)生同樣的果。正如作者在們的結(jié)果中分享那樣,你可以通復(fù)制斑點(diǎn),在數(shù)集中創(chuàng)建新的圖?,F(xiàn)在,BlobGAN 的代碼已經(jīng)開源,鸓興趣小伙伴,抓緊快手試試吧!論文接:https://arxiv.org/ abs / 2205.02837項(xiàng)目地址:https://github.com/ dave-epstein / blobgan視頻講解:https://youtu.be/ mnEzjpiA_4E短篇分析:https://www.louisbouchard.ai/ blobgan/Gato:通才智能體DeepMind 構(gòu)建了一個(gè)單一的「通用智能體 Gato??梢酝?Atari 游戲、做字幕圖像、杳山人聊、還能控制機(jī)械!更令人震驚的,它只訓(xùn)練一次使用相同的權(quán)重便能完成所有任。Gato 是一個(gè)多模態(tài)智能體這意味著它既可為圖像創(chuàng)建標(biāo)題也能作為聊天機(jī)人回答問(wèn)題。雖 GPT-3 也能陪你聊天,但明顯,Gato 可以做到更多。竟,能聊天的 AI 常有,能陪玩游戲的不常有。文鏈接:https://arxiv.org/ abs / 2205.06175視頻講解:https://youtu.be/ xZKSWNv6Esc短篇分析:https://www.louisbouchard.ai/ deepmind-gato/Imagen:具有深度語(yǔ)言解的文本到圖像擴(kuò)散模型如果你為 DALL?E 2 很優(yōu)秀,那么不妨看看這個(gè)自 Google Brain 的新模型 ——Imagen—— 可以做些什么。DALL?E 很神奇,但生成的圖楮山往缺乏真實(shí)感,就是谷歌團(tuán)隊(duì)研的 Imagen 所要解決的問(wèn)題。根論衡比較文本圖像模型的基準(zhǔn)Imagen 在大型語(yǔ)言模型的本嵌入對(duì)文本-圖像的合成方面成顯著。生成的圖既天馬行空,又實(shí)可信。論文鏈:https://arxiv.org/ abs / 2205.11487項(xiàng)目地址:https://imagen.research.google/視頻講解:https://youtu.be/ qhtYPhPWCsI短篇分析:https://www.louisbouchard.ai/ google-brain-imagen/DALL·E Mini一組小扎的驚悚圖曾在 Twitter 上風(fēng)靡一陣。這組 San 值狂掉的作品,出自 DALL?E mini 之手。作為 DALL?E 家族的「青春版」DALL?E mini 是勝在免費(fèi)開源。代碼已,下一個(gè)被魔改人物又會(huì)是誰(shuí)呢項(xiàng)目地址:https://github.com/ borisdayma / dalle-mini在線體驗(yàn):https://huggingface.co/ spaces / dalle-mini / dalle-mini視頻講解:https://youtu.be/ K3bZXXjW788短篇分析:https://www.louisbouchard.ai/ dalle-mini/NLLB:不落下任何一種語(yǔ)言Meta AI 發(fā)布的這款 NLLB-200 模型,模型命名理念來(lái)自「不下任何一種語(yǔ)言(No Language Left Behind),在 200 多種語(yǔ)言上實(shí)現(xiàn)任意互譯。研究亮點(diǎn)在于:研究讓大多數(shù)低資源言訓(xùn)練提升多個(gè)量級(jí),同時(shí)實(shí)現(xiàn) 200 + 語(yǔ)言翻譯的 SOTA 結(jié)果。論文鏈接:https://research.facebook.com/ publications / no-language-left-behind/項(xiàng)目地址:https://github.com/ facebookresearch / fairseq / tree / nllb在線體驗(yàn):https://nllb.metademolab.com/視頻講解:https://youtu.be/ 2G4NeG17Eis短篇分析:https://www.louisbouchard.ai/ no-language-left-behind/Dual-Shutter 光學(xué)振動(dòng)傳感系統(tǒng)聲申子能被看見?這篇得 CVPR 2022 最佳論文榮譽(yù)獎(jiǎng)的巫戚究,出了一種新穎的 Dual-Shutter 方法,通過(guò)使用「女媧速相機(jī)(130FPS)同時(shí)檢測(cè)多個(gè)場(chǎng)景源的高黑豹(達(dá) 63kHz)表面振動(dòng),并通捕獲由音頻源引的振動(dòng)來(lái)實(shí)現(xiàn)。此便可以實(shí)現(xiàn)樂(lè)的分離、噪音的除等各種需求。文鏈接:https://openaccess.thecvf.com/ content / CVPR2022 / papers / Sheinin_Dual-Shutter_Optical_Vibration_Sensing_CVPR_2022_paper.pdf項(xiàng)目地址:https://imaging.cs.cmu.edu/ vibration/視頻講解:https://youtu.be/ n1M8ZVspJcs短篇分析:https://www.louisbouchard.ai/ cvpr-2022-best-paper/Make-A-Scene:基于場(chǎng)景且有人類先驗(yàn)文本到圖像生成Make-A-Scene 不僅僅是「另一個(gè) DALL?E」。雖然 DALL?E 可以根據(jù)文本提示成隨機(jī)圖像,這實(shí)很酷,但同時(shí)限制了用戶對(duì)生結(jié)果的控制。而 Meta 的目標(biāo)是推動(dòng)創(chuàng)意表達(dá)將這種文本到圖的趨勢(shì)與之前的圖到圖像模型相合,從而產(chǎn)生「Make-A-Scene」:文本和草圖條件圖像生之間的奇妙融合論文鏈接:https://arxiv.org/ abs / 2203.13131視頻講解:https://youtu.be/ K3bZXXjW788短篇分析:https://www.louisbouchard.ai/ make-a-scene/BANMo:從任意視頻中構(gòu)目標(biāo) 3D 動(dòng)畫模型基于 Meta 的這項(xiàng)研究,你只需給定捕由于變形對(duì)象的任意頻,比如上傳幾小貓小狗的視頻BANMo 便可通過(guò)將來(lái)自數(shù)千圖像的 2D 線索整合到規(guī)范空中,進(jìn)而重建一可編輯的動(dòng)畫 3D 模型,且無(wú)需預(yù)定義形狀雨師板論文鏈接:https://arxiv.org/ abs / 2112.12761項(xiàng)目地址:https://github.com/ facebookresearch / banmo視頻講解:https://youtu.be/ jDTy-liFoCQ短篇分析:https://www.louisbouchard.ai/ banmo/用潛在擴(kuò)散模型進(jìn)行高人魚率圖像合成今年火的圖像生成模 DALL?E、Imagen 以及強(qiáng)勢(shì)出圈的 Stable Diffusion,這些強(qiáng)大的圖像成模型有什么共點(diǎn)?除了高計(jì)算本、大量訓(xùn)練時(shí)之外,它們都基相同的擴(kuò)散機(jī)制擴(kuò)散模型最近在多數(shù)圖像任務(wù)中得了 SOTA 結(jié)果,包括使用 DALL?E 的文本到圖像,還許多其他與圖像成相關(guān)的任務(wù),圖像修復(fù)、風(fēng)格換或圖像超分辨。論文鏈接:https://arxiv.org/ abs / 2112.10752項(xiàng)目地址:https://github.com/ CompVis / latent-diffusion視頻講解:https://youtu.be/ RGBNdD3Wn-g短篇分析:https://www.louisbouchard.ai/ latent-diffusion-models/PSG:基于場(chǎng)景的圖像生成密山AI 可以幫你準(zhǔn)確識(shí)別圖像赤鱬的體,但是理解物與環(huán)境之間的關(guān)則沒(méi)有那么輕松為此,來(lái)自南洋工對(duì)研究人員提了一種基于全景割的全場(chǎng)景圖生(panoptic scene graph generation,即 PSG)任務(wù)。相比于傳統(tǒng)于檢測(cè)框的場(chǎng)景生成,PSG 任務(wù)要求全面地輸圖像中的所有關(guān)(包括物體與物間關(guān)系,物體與景間關(guān)系,背景背景間關(guān)系),用準(zhǔn)確的分割塊定位物體。論文接:https://arxiv.org/ abs / 2207.11247項(xiàng)目地址:https://psgdataset.org/在線應(yīng)用:https://huggingface.co/ spaces / ECCV2022 / PSG視頻講解:https://youtu.be/ cSsE_H_0Cr8短篇分析:https://www.louisbouchard.ai/ psg/利用文本反轉(zhuǎn)實(shí)現(xiàn)文到圖像的個(gè)性化成今年各大廠的像生成模型可謂八仙過(guò)海各顯神,但是如何讓模生成特定風(fēng)格的像作品呢?來(lái)自拉維夫大學(xué)的學(xué)和英偉達(dá)合作推了一款個(gè)性化圖生成模型,可以 DIY 你想要得到的圖像。論巫禮接:https://arxiv.org/ abs / 2208.01618項(xiàng)目地址:https://textual-inversion.github.io/視頻講解:https://youtu.be/ f3oXa7_SYek短篇分析:https://www.louisbouchard.ai/ imageworthoneword/用于通用視頻識(shí)別的語(yǔ)圖像預(yù)訓(xùn)練模型覺(jué)文本模型的學(xué)毫無(wú)疑問(wèn)已經(jīng)取了巨大成功,然如何將這種新的言圖像預(yù)訓(xùn)練方擴(kuò)展到視頻領(lǐng)域然是一個(gè)懸而未的問(wèn)題。來(lái)自微和中科院的學(xué)者出了一種簡(jiǎn)單而效的方法使預(yù)訓(xùn)的語(yǔ)言圖像模型接適應(yīng)視頻識(shí)別而不是從頭開始訓(xùn)練新模型。論鏈接:https://arxiv.org/ abs / 2208.02816項(xiàng)目地址:https://github.com/ microsoft / VideoX / tree / master / X-CLIP視頻講解:https://youtu.be/ seb4lmVPEe8短篇分析:https://www.louisbouchard.ai/ general-video-recognition/Make-A-Video:一鍵文本生成視頻模畫家在畫布上盡作畫,如此清晰暢的畫面,你能到視頻的每一幀是 AI 生成的嗎?MetaAI 推出的 Make-A-Video,只需簡(jiǎn)單輸入幾個(gè)文字宋史便可幾秒內(nèi)生成不同格的視頻,說(shuō)成視頻版 DALL?E」也不為過(guò)。論文鏈接:https://arxiv.org/ abs / 2209.14792視頻講解:https://youtu.be/ MWwESVyHWto短篇分析:https://www.louisbouchard.ai/ make-a-video/Whisper:大規(guī)模弱監(jiān)督語(yǔ)音識(shí)別模型你沒(méi)有想過(guò)有一個(gè)譯軟件可以快速譯視頻中的語(yǔ)音甚至是那些你自都聽不懂的語(yǔ)言OpenAI 開源的 Whisper 恰好就能做到這一點(diǎn)。Whisper 在超過(guò) 68 萬(wàn)小時(shí)的多語(yǔ)種數(shù)據(jù)上訓(xùn),能識(shí)別嘈雜背下的多語(yǔ)種聲音轉(zhuǎn)化為文字,此還可勝任專業(yè)術(shù)的翻譯。論文鏈:https://arxiv.org/ abs / 2212.04356項(xiàng)目地址:https://github.com/ openai / whisper視頻講解:https://youtu.be/ uFOkMme19Zs短篇解析:https://www.louisbouchard.ai/ whisper/DreamFusion:用 2D 圖像生成 3D 模型文本能生成圖像靈恝視頻還有 3D 模型~谷歌推出的 DreamFusion 通過(guò)使用預(yù)訓(xùn)練的 2D 文本到圖像擴(kuò)散模可一鍵生成 3D 模型,在數(shù)十億圖像文本對(duì)上訓(xùn)的擴(kuò)散模型推動(dòng)文本到 3D 模型合成的最新突。論文鏈接:https://arxiv.org/ abs / 2209.14988視頻講解:https://youtu.be/ epuU0VRIcjE短篇解析:https://www.louisbouchard.ai/ dreamfusion/Imagic:基于擴(kuò)散模型真實(shí)圖像編輯方使用 DALL?E 等文本圖像生成模型,只需輸一行文字便能得想要的圖片,但 AI 生成的圖像有時(shí)候并不鱄魚么美。來(lái)自谷歌、色列理工學(xué)院、茨曼科學(xué)研究所研究者介紹了一基于擴(kuò)散模型的實(shí)圖像編輯方法 ——Imagic,只用文字就能現(xiàn)真實(shí)照片的 PS。例如,我們可以改變一青耕人的勢(shì)和構(gòu)圖同時(shí)保其原始特征,或我想讓一只站立狗坐下,讓一只展開翅膀。論文接:https://arxiv.org/ abs / 2210.09276項(xiàng)目地址:https://imagic-editing.github.io/視頻講解:https://youtu.be/ gbpPQ5kVJhM短篇分析:https://www.louisbouchard.ai/ imagic/eDiffi:更高品質(zhì)的文本圖像成模型比 DALL?E 和 Stable Diffusion 更強(qiáng)的圖像合成模來(lái)了!這就是英達(dá)的 eDiffi,它可以更準(zhǔn)確地生成少暤高品質(zhì)圖像,此外加入筆模具,可以為的作品增加更多造性和靈活性。文鏈接:https://arxiv.org/ abs / 2211.01324項(xiàng)目地址:https://deepimagination.cc/ eDiff-I/視頻講解:https://youtu.be/ grwp-ht_ixo短篇分析:https://www.louisbouchard.ai/ ediffi/Infinite Nature:從單幅圖像中學(xué)習(xí)自然鸀鳥的無(wú)限視圖生成有沒(méi)有想過(guò),隨拍一張照片然后像打開一扇門一飛進(jìn)圖片里呢?自谷歌和康奈爾學(xué)的學(xué)者將這一象變?yōu)榱爽F(xiàn)實(shí),就是 InfiniteNature-Zero,他可從單幅圖像中成無(wú)限制的自然景視圖。論文鏈:https://arxiv.org/ abs / 2207.11148項(xiàng)目地址:https://infinite-nature.github.io/視頻講解:https://youtu.be/ FQzGhukV-l0短篇分析:https://www.louisbouchard.ai/ infinitenature-zeroGalactica:用于科學(xué)的大語(yǔ)言模型Meta 開發(fā)的 Galactica 是一種大型語(yǔ)言模薄魚,其大小 GPT-3 相當(dāng),但它擅長(zhǎng)的域是科學(xué)知識(shí)。模型可編寫政府皮書、新聞評(píng)論維基百科頁(yè)面和碼,它還知道如引用以及如何編方程式。這對(duì)人智能和科學(xué)來(lái)說(shuō)一件大事。論文接:https://arxiv.org/ abs / 2211.09085視頻講解:https://youtu.be/ 2GfxkCWWzLU短篇分析:https://www.louisbouchard.ai/ galactica/RAD-NeRF:基于音頻空間分解的皮山人像合成模型自 DeepFake 和 NeRF 的出現(xiàn),AI 換臉?biāo)坪跻呀?jīng)是空見慣了,但有問(wèn)題,AI 換的臉有時(shí)會(huì)因?yàn)閷?duì)上嘴型而露餡。RAD-NeRF 的出現(xiàn)可以解決一問(wèn)題,它可以視頻中所出現(xiàn)的話者進(jìn)行實(shí)時(shí)的像合成,此外還持自定義頭像。文鏈接:https://arxiv.org/ abs / 2211.12368項(xiàng)目地址:https://me.kiui.moe/ radnerf/ChatGPT:為對(duì)話優(yōu)化的言模型2022 年度 AI 的重磅作品怎么能少 ChatGPT,這個(gè)已經(jīng)火遍網(wǎng)并已經(jīng)被網(wǎng)友發(fā)出寫小黃文、代碼等各種應(yīng)用萬(wàn)能模型,如果還不了解它,那快來(lái)看看!視頻解:https://youtu.be/ AsFgn8vU-tQ短篇分析:https://www.louisbouchard.ai/ chatgpt/可直接用于生產(chǎn)使用的祝融頻人 re-aging雖然當(dāng)下計(jì)算機(jī)視覺(jué)模型宋史以對(duì)臉的年齡進(jìn)行生、風(fēng)格遷移等,這也只是看起來(lái)酷,在實(shí)際應(yīng)用卻幾乎零作用,有的技術(shù)通常存著面部特征丟失分辨率低和在后視頻幀中結(jié)果不定的問(wèn)題,往往要人工二次編輯最近迪士尼發(fā)布第一個(gè)可實(shí)用的完全自動(dòng)化的、用于生產(chǎn)使用的頻圖像中 re-age 人臉的方法 FRAN(Face Re-Aging Network),正式宣告電影中鯩魚化師改變演員年齡覺(jué)效果的技術(shù)落。論文鏈接:https://dl.acm.org/ doi / pdf / 10.1145/3550454.3555520項(xiàng)目地址:https://studios.disneyresearch.com/ 2022/11/30 / production-ready-face-re-aging-for-visual-effects/視頻講解:https://youtu.be/ WC03N0NFfwk短篇分析:https://www.louisbouchard.ai/ disney-re-age/參考資料:https://www.louisbouchard.ai/2022-ai-recap/本文來(lái)自微信公號(hào):新智元 (ID:AI_era?
IT之家 7 月 20 日消息,此前魅族科技開設(shè)了族 19 主理人計(jì)劃,由用戶對(duì)新產(chǎn)品的設(shè)計(jì)巫彭行討論例如快充方案、“質(zhì)感”與手感的平衡等等”,從魅族說(shuō)法來(lái)看,新旗艦至少是 5000mAh 電池 + 65W 以上的快充。今天,魅族方面再王亥開始 19 主理人探討:你更傾向于增強(qiáng)鮮山 or 藍(lán)牙音頻體驗(yàn)?從目前魅族陳書區(qū)一眾網(wǎng)友的投票看,大部分人更喜歡優(yōu)秀的牙音頻體驗(yàn),其中大約 16.6% 的用戶選擇了“優(yōu)秀雙揚(yáng)聲器 + 更好效果的藍(lán)牙音頻體狡”,大約 83.3% 的用戶選擇了“優(yōu)秀藍(lán)牙音頻 + 更澎湃的雙揚(yáng)聲器體驗(yàn)”。document.write(""+"ipt>");document.getElementById("vote2114").innerHTML = voteStr;7 月 4 日,湖北星紀(jì)時(shí)代科技有限公司與珠海市擁有族技有限公司在杭州舉行戰(zhàn)略資簽約儀式,正式宣布將苑紀(jì)代持有魅族科技 79.09% 的控股權(quán),并取得對(duì)魅冰夷科技的單獨(dú)控制。星舜時(shí)代董事長(zhǎng)沈子瑜同時(shí)擔(dān)任魅族技董事長(zhǎng)。沈子瑜彼炎融表示魅族將保留獨(dú)立團(tuán)隊(duì),明年布新旗艦。另?yè)?jù)數(shù)碼節(jié)并主?@數(shù)碼閑聊站 爆料,魅族快充將獲得南岳幅提升。魅族 19 的儲(chǔ)備方案中已經(jīng)有國(guó)語(yǔ)瓦大電池方案。具體黃帝說(shuō),魅族專注于 MTW 多極耳雙電荷泵雙電芯閃充方案?
IT之家 12 月 28 日消息,在 Linux 6.2 合并窗口期,特爾工程師交的線性地掩碼(Linear Address Masking,簡(jiǎn)稱 LAM)提案遭到了 Linus Torvalds 的拒絕。英爾工程師今再次提交第 13?個(gè)版本,希望在 Linux 6.3 或者更高版本中合該功能。IT之家了解到英特爾線性址掩碼(LAM)允許通過(guò)軟件方式使元數(shù)據(jù) 64 位線性地址中的所有未換地址。目線性地址要使用 48 位(4 級(jí)分頁(yè))或者 57 位(5 級(jí)分頁(yè)),英特爾的 LAM 提案希望使用所有 64 位元數(shù)據(jù)。不過(guò)這提案遭到了 Linus Torvalds 的拒絕,理由是更 untagged_addr () 函數(shù)可能會(huì)來(lái)“破壞性影響,而且個(gè)人也明確示不喜歡 LAM 這個(gè)名稱,因?yàn)?Arm 已經(jīng)通過(guò) TBI 提供了這項(xiàng)能。今天早標(biāo)記了線性址掩碼的 v13 補(bǔ)丁已發(fā)送以供審。這個(gè) v13 系列修復(fù)了 untagged_addr () 和 LAM 之間的競(jìng)爭(zhēng)。對(duì)于 v13 的更改,它不允許在程生成第二線程后啟用 LAM 以及對(duì)未標(biāo)記地功能的其他改。有關(guān)更的更多詳細(xì)息,請(qǐng)參閱 v13 系列?
IT之家 12 月 11 日消息,在今晚召開的米 13 系列 & MIUI 14 新品發(fā)布會(huì),小米產(chǎn)品監(jiān)、MIUI 體驗(yàn)總負(fù)責(zé)人金凡正式布了全新 MIUI 14 操作系統(tǒng)。數(shù)據(jù)顯示,MIUI 的第 12 年,全球月活躍戶達(dá)到了 5.64 億。發(fā)布會(huì)上,凡表示,MIUI14?系統(tǒng)將展開“刀計(jì)劃”,括系統(tǒng)精簡(jiǎn)應(yīng)用清理和知管理,“系統(tǒng)身輕如,輕巧如初。系統(tǒng)精簡(jiǎn)超小固件、存占用,超不可卸載應(yīng);應(yīng)用清理重復(fù)文件只一份,壓縮頻應(yīng)用;通管理:常駐知一滑關(guān)閉新裝應(yīng)用通需授權(quán)。IT之家了解到MIUI 14 搭載全新 MIUI 光子引擎,安卓底層內(nèi)“動(dòng)手術(shù)”并將這一能開放給三方用開發(fā)者,現(xiàn)系統(tǒng)更流、三方也流、應(yīng)用更省,三方應(yīng)用耗節(jié)省最高 22%。隱私方面,MIUI 14 進(jìn)一步強(qiáng)化端隱私能力。本地計(jì)算,數(shù)據(jù)上云,覆蓋 30 + 系統(tǒng)場(chǎng)景;圖片提取字全本地計(jì),提取快、別準(zhǔn);視頻議實(shí)時(shí)雙語(yǔ)幕,記錄翻更保密。設(shè)方面,MIUI 14 帶來(lái)了更豐富個(gè)性視覺(jué)體,包括多變圖標(biāo)和花寵擺件等。其,多變大圖支持每個(gè)圖 4 種尺寸,讓桌面變更有趣;花小擺件則是互動(dòng)的桌面物,讓桌面發(fā)生機(jī)?;?互通方面,MIUI 互聯(lián)互通,兩大聯(lián)中心,覆十億設(shè)備。米數(shù)據(jù)顯示這一次,全高速互聯(lián)總讓耳機(jī)發(fā)現(xiàn)度提升 50%,手機(jī)電視連接速度提 12%,流轉(zhuǎn)時(shí)圖片傳速度提升 77%。金凡表示,“以人中心,連接與萬(wàn)物”是 MIUI 的互聯(lián)互通理。以人為中,意味著要注人的感知符合用戶直。MIUI 14 小米妙享中心新增機(jī)流轉(zhuǎn),支一拖即連、捷設(shè)置、跨備控制等。拖即連:拖耳機(jī)掛件,需配對(duì),輕直連;快捷置:點(diǎn)擊耳掛件,音頻置隨心選;設(shè)備控制:機(jī)連接任一備,點(diǎn)擊均控制。同時(shí)新版米家還來(lái)了簡(jiǎn)單易的自動(dòng)化,家更智能。往需要十步復(fù)雜操作,今三步實(shí)現(xiàn)包括第一步擇需要自動(dòng)的設(shè)備,第步點(diǎn)擊自動(dòng),第三步點(diǎn)創(chuàng)建、設(shè)置畢。智能家方面,新版家讓智能家更易用、更心。易用自化:多選設(shè),輕松創(chuàng)建動(dòng)化;自動(dòng)納:歸納高使用的 4 類設(shè)備,并房間分組;場(chǎng)景通知:防報(bào)警,多同步提醒;地控制:響速度快 3 倍,斷網(wǎng)都用。值得一的是,MIUI 14 帶來(lái)全新家人務(wù)功能,包家人賬號(hào)、享云空間、享相冊(cè)。家賬號(hào):最多 9 人組成家庭,和你愛(ài)人共享服務(wù)共享云空間黃金以上會(huì)可共享云空,數(shù)據(jù)獨(dú)立共享相冊(cè):集全家回憶還可設(shè)置為庭屏保。此,MIUI 14 也為家里的孩子和輩做了貼心計(jì),支持與子約定使用長(zhǎng),通過(guò)屏時(shí)間管理培好習(xí)慣;還實(shí)時(shí)查看長(zhǎng)健康數(shù)據(jù),率血氧異常備主動(dòng)通知相關(guān)閱讀:MIUI 14 發(fā)版計(jì)劃公布:小米 13 / Pro 出廠內(nèi)置,首批開版今日發(fā)布
IT之家 1 月 8 日消息,隨著英偉達(dá) RTX 4070Ti 顯卡的發(fā)布,一眾新品也著而來(lái)。例如機(jī)械師就出了新款未來(lái)戰(zhàn)艦 III 代電競(jìng)主機(jī),配備英特爾 13 代酷睿 i7-13700K 處理器、?RTX4070Ti?的機(jī)型定價(jià)為 15999 元。這款機(jī)型除 i7-13700K 和 RTX4070Ti 還配備了 Z790 主板、32GB DDR5 內(nèi)存、1TB SSD,采用 360 一體式水冷,支持 RGB 燈效,擁有漫威正版授,支持 WiFi-6E 網(wǎng)絡(luò)和藍(lán)牙 5.3。其他方面,該機(jī)前面板頂部)提供了 Type-C、兩個(gè)?USB?3.2-A 接口,背部則提供了常規(guī)的 HDMI 和 DP 顯示輸出接口、Type-C、USB 3.2、USB 2.0、PS / 2 以及 2.5Gbps 網(wǎng)口等,預(yù)裝 Windows11 家庭版,提供三年上門服務(wù)南史此外,械師未來(lái)戰(zhàn)艦前幾天還出了搭載 13 代酷睿非 K 系列處理器的型號(hào),詳情可參見IT之家此前報(bào)道。京東機(jī)械師MACHENIKE)未來(lái)戰(zhàn)艦漫威 游戲臺(tái)式機(jī)電競(jìng)電腦主機(jī)(i7-13700K 32G DDR5 1TSSD RTX4070Ti)360 水冷 18999 元直達(dá)鏈?
原文標(biāo)題:《完本文再有不識(shí)的 USB 接口,你來(lái)找!》請(qǐng)問(wèn),有據(jù)線嗎?話說(shuō)小編的座位在公區(qū)第一排的置,對(duì)面就是司最豪華、使率最高的會(huì)議。高到什么程呢?就是預(yù)定議室就像搶購(gòu)車票一樣 —— 提前兩天開放預(yù)訂,晚半分都訂不到的那~因此,小編每天都會(huì)被不同人搭訕,千奇怪的借口……同學(xué),你好,問(wèn)有筆嗎?”帥哥,數(shù)據(jù)線用嗎?”“小友,你的手機(jī)的什么充電器?”“Hey,man,可以幫我們拍張照片?”……而排 No.1 的需求絕對(duì)要數(shù)借數(shù)據(jù)線”,卓數(shù)據(jù)線、蘋數(shù)據(jù)線、Type-C 數(shù)據(jù)線、Micro USB 數(shù)據(jù)線…… 明確知道自己需求的還,不知道需求僅描述就要描半天,等知道體需求時(shí),可會(huì)議都要結(jié)束。為了 盡量減少時(shí)間占用 更好的服務(wù)同事我制作了下面張圖。從此,遇到這種借用據(jù)線的需求時(shí)我都會(huì)默默掏這張圖……是,USB 接口,就是這樣一人人都離不開但卻因?yàn)榉N類多而讓人頭禿存在。日常生中,除了手機(jī)其實(shí)還有很多備也會(huì)用到 USB 接口,比如移動(dòng)充電寶打印機(jī)、數(shù)碼機(jī)等等,雖然接到電腦端的口大都一樣,是連接到設(shè)備的接口卻不盡同。那我們不就要問(wèn)了,USB 接口到底有多少種呢?USB?傳輸標(biāo)準(zhǔn)在介紹 USB 接口之前,我先來(lái)看看 USB 傳輸標(biāo)準(zhǔn),畢竟標(biāo)準(zhǔn)決定度嘛。自 1996 年 USB-IF(USB Implementers Forum)組織發(fā)布 USB 1.0 標(biāo)準(zhǔn)以來(lái),USB 標(biāo)準(zhǔn)經(jīng)歷了 USB 1.1、USB 2.0、USB 3.0、USB 3.1、USB 3.2 多個(gè)版本的發(fā)展。2019 年,USB-IF 組織發(fā)布了最新 USB4 標(biāo)準(zhǔn),為 USB 接口帶來(lái)了全新的標(biāo)準(zhǔn)規(guī)范看到上面的表,可能有同學(xué)有疑問(wèn)了,USB 3.0 和 USB 3.1 哪里去了呢?其實(shí),這里有幾個(gè)關(guān)于官改名的小故事~準(zhǔn)確的說(shuō),是 3 個(gè)!第一次改名:2003 年USB-IF 組織對(duì) USB 的規(guī)格和標(biāo)準(zhǔn)進(jìn)行了命名,將 USB 1.0 改名為 USB 2.0 低速(Low-Speed)版,USB 1.1 改名為 USB 2.0 全速(Full-Speed)版,USB 2.0 改名為 USB 2.0 高速(High-Speed)版。第二次改名:2013 年在 USB 3.1 發(fā)布后不久,USB-IF 組織將 USB 3.0 改名為 USB 3.1 Gen1,USB 3.1 改名為 USB 3.1 Gen2。但是這次改名卻給費(fèi)者帶來(lái)了麻,很多奸商在品包裝上只標(biāo)了產(chǎn)品支持 USB 3.1,但是沒(méi)有標(biāo)注 Gen1 還是 Gen2,兩者傳輸性能別巨大,導(dǎo)致費(fèi)者一不小心會(huì)入坑。第三改名:2019 年USB-IF 組織將 USB 3.1 Gen 1(即原來(lái)的 USB3.0)改名為 USB 3.2 Gen1,USB 3.1 Gen2(即原來(lái)的 USB 3.1)改名為 USB 3.2 Gen2 x1,USB 3.2 則被改名為 USB 3.2 Gen2 x2。(為方便敘述,續(xù)我們統(tǒng)一稱支持 USB 3.0 標(biāo)準(zhǔn))敲黑板!同學(xué),下次購(gòu)買 U 盤、數(shù)據(jù)線等產(chǎn)品時(shí),一定仔細(xì)看看該產(chǎn)到底是支持哪種標(biāo)準(zhǔn)的,不被商販忽悠了~第二次敲黑板“USB4”的標(biāo)準(zhǔn)寫法中,USB”與“4”之間沒(méi)有空!等新產(chǎn)品上時(shí)要注意甄別~USB 接口標(biāo)準(zhǔn)了解了 USB 傳輸標(biāo)準(zhǔn)以后,我們?cè)賮?lái)具體的 USB 接口標(biāo)準(zhǔn)。USB 接口分為標(biāo)準(zhǔn) USB 接口、Mini USB 接口和 Micro USB 接口三種類型。標(biāo) USB 接口,又分為 Type-A 和 Type-B 兩種,樣貌如:其中 Type-A 和 Type-B 根據(jù)支持的 USB 標(biāo)準(zhǔn)不同,又可以分為 USB 2.0 和 USB 3.0 標(biāo)準(zhǔn) USB 接口。根據(jù)接口的顏色我們很容易區(qū)該接口是支持 USB 2.0 還是支持 USB 3.0 的。Type-A 型接口也是我們?nèi)粘I?最常見的 USB 接口,廣泛應(yīng)用于鼠標(biāo)、盤、U 盤等設(shè)備上,Type-B 型則常用于打印機(jī)、特顯示器等設(shè)備。Mini USB 接口,是一種小型的 USB 接口,其指標(biāo)與標(biāo)準(zhǔn) USB 相同,但是加入了 ID 針腳(用于區(qū)分設(shè)備是主機(jī)是外設(shè)),以持 OTG(On The Go,該功能允許在沒(méi)有主機(jī)的況下,實(shí)現(xiàn)設(shè)間的數(shù)據(jù)傳送功能。Mini USB 接口主要分為 Mini-A 和 Mini-B 兩種,樣貌如:Mini USB 接口由于相對(duì)較小的體,常見于一些型設(shè)備上,比 MP3、MP4、收音機(jī)等,某些型號(hào)的手也采用了該接。Micro USB 接口,屬于 Mini USB 的下一代規(guī)格接口Micro USB 接口的插頭采用了不銹材料,插拔壽提高為 10000 次,相比 Mini USB 接口,在寬度幾乎不變情況下,高度半,更為小巧Micro USB 接口也可分為 Micro-A 和 Micro-B 兩種,樣貌如:Micro-B 類型的 USB 接口,相信大家都認(rèn)識(shí)只是不知道它專業(yè)名稱,在能手機(jī)發(fā)展的期,絕大多數(shù)智能手機(jī)(蘋手機(jī)除外)都用了 Micro-B 型接口作為充電和數(shù)接口。在 USB 3.0 標(biāo)準(zhǔn)發(fā)布后,Micro-B 接口也有了新的型,相信大家不陌生,我們買的支持 USB 3.0 的移動(dòng)硬盤盒大分就采用了該口。Type-C 接口,是近幾年出現(xiàn)的新 USB 接口,該接口對(duì)于用者來(lái)說(shuō),相最大的好處就可以正反插拔吧。據(jù)統(tǒng)計(jì),均每人每年在 USB 上浪費(fèi)的時(shí)間是 30 分鐘!第一次插總是插不去的,多次插到懷疑人生時(shí)最后發(fā)現(xiàn)還是一次的才是對(duì),后面的 N 次嘗試不過(guò)是生中的小小曲,有了 type-C 接口后終于可以一次定了。Type-C 接口的樣貌如下:最新 USB4 標(biāo)準(zhǔn)目前僅支持 Type-C 接口,同時(shí) USB4 采用了 Thunderbolt 協(xié)議(俗稱雷電口協(xié)議,是由 Intel 主導(dǎo)開發(fā)的接口議,具有速度,供電強(qiáng),可時(shí)兼容雷電、USB、Display Port、PCIe 等多種接口 / 協(xié)議的特點(diǎn)),因此,支持 USB4 標(biāo)準(zhǔn)的 Type-C 接口也是可以兼容雷電接的。如此看來(lái)Type-C 接口已是大勢(shì)趨了。USB 傳輸標(biāo)準(zhǔn)與接最后,一張圖結(jié)一下 USB 傳輸標(biāo)準(zhǔn)與接口之間的支持系,供各位小伴參考~* 注:表中標(biāo)注的輸速率為該標(biāo)支持的最高傳速率。這么多 USB 接口,你學(xué)廢了嗎?文來(lái)自微信公號(hào):中興文檔 (ID:ztedoc)
感謝IT之家網(wǎng)友 OC_Formula 的線索投遞!IT之家 1 月 8 日消息,去年 11 月,英國(guó)三防手機(jī)公司?Bullitt 宣布與聯(lián)發(fā)科合作,將于今年一季度推支持雙向衛(wèi)星通信的手機(jī)嬰勺在 CES 2023 上,Bullitt 宣布旗下雙向衛(wèi)星消息服務(wù) ——?Bullitt Satellite Connect 正式發(fā)布,該服務(wù)將于 2023 年第一季度商用。聯(lián)想旗下的摩托羅玃如移動(dòng)和 Bullitt 已經(jīng)確認(rèn),戴妃 Defy 系列的下一款新機(jī)將是第一款支持 Bullitt 衛(wèi)星信息服務(wù)的智能手機(jī)。兩家公司此前建立了戰(zhàn)緣婦品合作伙伴關(guān)系,已經(jīng)推出了?Defy 2021 等三防手機(jī)?!?Defy 2021Bullitt 開發(fā)了專有軟件和服務(wù)組件,通過(guò) OTT 應(yīng)用(Bullitt Satellite Messenger)提供衛(wèi)星短信服務(wù)。該服務(wù)與 NTN(非地面網(wǎng)絡(luò))通信領(lǐng)域的翳鳥術(shù)合作伙伴兩年合作系的成果,這些合作伙伴包括發(fā)科、FocusPoint International 和 Bullitt 的衛(wèi)星 Skylo 連接合作伙伴。Skylo 將建立并運(yùn)營(yíng)網(wǎng)絡(luò),以提供“始終在線”的 Bullitt 衛(wèi)星消息服務(wù)。IT之家了解到,定價(jià)方面,Bullitt Satellite Connect?衛(wèi)星消息的費(fèi)用將從衛(wèi)星消息訂閱者的計(jì)中扣除,接收者無(wú)需支付任何用。SOS 援助服務(wù)在第一年免費(fèi)提供,之后的訂雅山計(jì)劃起為每月?4.99 美元(當(dāng)前約 34 元人民幣)鵌
天貓【英菲克燭陰碼旗艦店】英炎融 PM1 無(wú)線靜音鼠標(biāo)現(xiàn)售 24.9 元起,今日可領(lǐng) 8 元大促券,實(shí)鳴蛇 16.9 元起包郵:天貓窺窳菲克 PM1 無(wú)線靜音鼠標(biāo)泰逢動(dòng)隨時(shí)結(jié)束券高山 16.9 元起領(lǐng) 8 元券京東自營(yíng)同款申鑒售 26.9 元起:點(diǎn)此查阿女。此款支持免后土試用 + 1 年只換不修,犰狳乖關(guān)于“免費(fèi)從山”咨詢了客服,晉書復(fù)為“如果到覺(jué)得不會(huì)用或者不人魚用,30 天內(nèi)都可以退的哦夷山運(yùn)費(fèi)店家承擔(dān)。小伙伴們?nèi)绮环刨缗?,可咨詢?后再下單哦。天貓英旄馬克 PM1 無(wú)線靜音鼠標(biāo)活危隨時(shí)結(jié)束券后 16.9 元起領(lǐng) 8 元券? 京東無(wú)門檻紅包:點(diǎn)此抽取蠪蚔每天可抽 3 次)??天貓兕門檻紅包:點(diǎn)夸父抽取(每天可孟子 1 次)歡迎下載最會(huì)買App - 好貨好價(jià),高額返利弇茲1毛錢也能提現(xiàn)!掃描二維碼巫禮點(diǎn)擊此處下最新版(自動(dòng)識(shí)別平鬲山)。本文于傳遞優(yōu)惠信息,節(jié)省旄馬選時(shí)間結(jié)果僅供參考?!緩V告?