• <strike id="44quq"></strike>
      <s id="44quq"><em id="44quq"></em></s>
            <pre id="44quq"></pre>
          • 比Transformer快4成!Meta發布全新Megabyte模型,解決算力損耗硬傷
            時間:2023-05-30 19:49:07  來源:引領外匯網  
            1
            聽新聞

            Transformer最近幾年已然成為大模型的標配,而Meta團隊開發的一款Megabyte模型聲稱能解決Transformer的硬傷,速度還要快四成。

            編者按:本文來自微信公眾號 新智元(ID:AI_era),編輯:Joey,創業邦經授權轉載,頭圖來源攝圖網


            (相關資料圖)

            Transformer無疑是過去幾年內機器學習領域最流行的模型。

            自2017年在論文「Attention is All You Need」中提出之后,這個新的網絡結構,刷爆了各大翻譯任務,同時創造了多項新的記錄。

            但Transformer在處理長字節序列時有個硬傷,就是算力損耗嚴重,而Meta的研究人員的最新成果則可以很好地解決這一缺陷。

            他們推出了一種全新的模型架構,能跨多種格式生成超過100萬個token,并超越GPT-4等模型背后的現有 Transformer架構的功能。

            這個模型被稱為「兆字節」(Megabyte),是一種多尺度解碼器架構(Multi-scale Decoder Architecture),可以對超過一百萬字節的序列進行端到端可微分建模。

            論文鏈接:https://arxiv.org/abs/2305.07185

            Megabyte為什么比Transformer強,就得先看看Transformer的不足之處在哪。

            Transformer的不足

            迄今為止幾類高性能的生成式AI模型,如OpenAI的GPT-4、Google的Bard,都是基于Transformer架構的模型。

            但Meta的研究團隊認為,流行的Transformer架構可能正達到其閾值,其中主要理由是Transformer設計中固有的兩個重要缺陷:

            - 隨著輸入和輸出字節長度的增加,自注意力的成本也迅速增加,如輸入的音樂、圖像或視頻文件通常包含數兆字節,然而大型解碼器 (LLM)通常只使用幾千個上下文標記

            - 前饋網絡通過一系列數學運算和轉換幫助語言模型理解和處理單詞,但在每個位置的基礎上難以實現可擴展性,這些網絡獨立地對字符組或位置進行操作,從而導致大量的計算開銷

            Megabyte強在哪

            相比Transformer,Megabyte模型展示了一種獨特的不同架構,將輸入和輸出序列劃分為patch而不是單個token。

            如下圖,在每個patch中,本地AI模型生成結果,而全局模型管理和協調所有patch的最終輸出。

            首先,字節序列被分割成固定大小的patch,大致類似于token,這個模型由三部分組成:

            研究人員觀察到,對于多數任務而言字節預測都相對容易(如完成給定前幾個字符的單詞),這意味著每個字節的大型網絡是不必要的,并且可以使用更小的模型進行內部預測。

            這種方法解決了當今AI模型中普遍存在的可擴展性挑戰,Megabyte 模型的patch系統允許單個前饋網絡在包含多個token的patch上運行,從而有效解決了自注意力縮放問題。

            其中,Megabyte架構對長序列建模的Transformer進行了三項主要改進:

            - 二次自注意力(Sub-quadratic self-attention)

            大多數關于長序列模型的工作都集中在減輕自注意力的二次成本上,而Megabyte將長序列分解為兩個較短的序列,即使對于長序列也仍然易于處理。

            - patch前饋層(Per-patch feedforward layers)

            在GPT-3大小的模型中,超過98%的FLOPS用于計算位置前饋層,Megabyte每個patch使用大型前饋層,以相同的成本實現更大、性能更強的模型。在patch大小為P的情況下,基線轉換器將使用具有m個參數的相同前饋層P次,兆字節可以以相同的成本使用具有mP個參數的層一次。

            - 解碼中的并行性(Parallelism in Decoding)

            Transformers必須在生成期間串行執行所有計算,因為每個時間步的輸入是前一個時間步的輸出,通過并行生成patch的表示,Megabyte允許在生成過程中實現更大的并行性。

            例如,具有1.5B參數的Megabyte模型生成序列的速度比標準的350MTransformer快40%,同時在使用相同的計算量進行訓練時還能改善困惑度。

            Megabyte遠遠優于其他模型,并提供與在子詞上訓練的 sota 模型競爭的結果

            相比之下,OpenAI 的GPT-4有32,000個token的限制,而Anthropic的Claude有100,000個token的限制。

            此外,在運算效率方面,在固定模型大小和序列長度范圍內,Megabyte比同等大小的Transformers和Linear Transformers使用更少的token,允許以相同的計算成本使用更大的模型。

            總之,這些改進使我們能夠在相同的計算預算下訓練更大、性能更好的模型,擴展到非常長的序列,并提高部署期間的生成速度。

            未來將會如何

            隨著AI軍備競賽進行地如火如荼,模型性能越來越強,參數也越來越高。

            雖然GPT-3.5在175B個參數上進行了訓練,但有人猜測功能更強大的GPT-4在1萬億個參數上進行了訓練。

            OpenAI的CEO Sam Altman最近也建議轉變戰略,他表示公司正在考慮舍棄對龐大模型的訓練,而專注于其他性能的優化。

            他將AI模型的未來等同于iPhone芯片,而大多數消費者對原始技術規格一無所知。

            Meta的研究人員相信他們的創新架構來得正是時候,但也承認還有其他優化途徑。

            例如采用修補技術的更高效的編碼器模型、將序列分解為更小塊的解碼模型以及將序列預處理為壓縮token等,并且可以擴展現有Transformer架構的能力以構建新一代模型。

            前特斯拉AI總監Andrej Karpathy也在這篇論文中發表了看法,他在推特上寫道:

            參考資料:

            https://www.artisana.ai/articles/meta-ai-unleashes-megabyte-a-revolutionary-scalable-model-architecture

            關鍵詞:

            免费又黄又爽又猛大片午夜,免费观看成人碰视频公开,大香一本蕉伊线亚洲网,国产精品美女免费视频大全
            • <strike id="44quq"></strike>
              <s id="44quq"><em id="44quq"></em></s>
                    <pre id="44quq"></pre>
                  • 主站蜘蛛池模板: 美女被男人扒开腿猛视频| 亚洲免费一级视频| 久久精品无码一区二区三区不卡| 一级片一级毛片| 美女范冰冰hdxxxx| 手机看片福利日韩国产| 国产高清一区二区三区视频| 国产一区二区精品人妖系列| 亚洲日本天堂在线| 一级毛片在线不卡直接观看| 美女尿口18以下禁止观看免费| 打麻将脱内衣的小说阿蕊| 国产aⅴ激情无码久久久无码 | 亚洲日韩中文字幕在线播放| 99国产精品免费视频观看| 老司机亚洲精品影院在线 | 福利视频第一区| 女大学生的沙龙| 亚洲视频在线观看免费视频| 99aiav国产精品视频| 欧美日韩高清一区二区三区电影| 国产精品视频一区二区三区不卡| 免费观看无遮挡www的视频| www一级黄色片| 污污的软件下载| 性做久久久久久| 俄罗斯乱理伦片在线观看| 99re5在线精品视频热线| 欧美激情另欧美做真爱| 国产精品久久一区二区三区| 亚洲欧美韩国日产综合在线| 一本一本久久a久久综合精品蜜桃| 视频一区在线播放| 怡红院亚洲色图| 亚洲综合国产一区二区三区 | 国产69精品久久久久999三级 | 青青青免费网站在线观看| 新梅瓶1一5集在线观看| 国产交换丝雨巅峰| 久久精品无码专区免费| 色偷偷狠狠色综合网|