色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

解析Transformer中的位置編碼 -- ICLR 2021

深度學習自然語言處理 ? 來源:復旦DISC 陳偉 ? 作者:復旦DISC 陳偉 ? 2021-04-01 16:07 ? 次閱讀

引言

Transformer是近年來非常流行的處理序列到序列問題的架構,其self-attention機制允許了長距離的詞直接聯系,可以使模型更容易學習序列的長距離依賴。由于其優良的可并行性以及可觀的表現提升,讓它在NLP領域中大受歡迎,BERT和GPT系列均基于Transformer實現。鑒于Transformer在NLP問題上的優異表現,也有越來越多人將其引入到了CV領域。

和RNN、CNN等模型不同,對于Transformer來說,位置編碼的加入是必要的,因為單純的self-attention機制無法捕捉輸入的順序,即無法區分不同位置的詞。為此我們大體有兩個方式:(1)將位置信息融入到輸入中,這構成了絕對位置編碼的一般做法;(2)將位置信息融入self-attention結構中,這構成了相對位置編碼的一般做法。

本次Fudan DISC實驗室將分享ICLR 2021中關于Transformer和其位置編碼的3篇論文,介紹研究人員從不同角度和場景下對Transformer和其位置編碼的研究。

文章概覽

重新思考語言預訓練中的位置編碼

Rethinking the Positional Encoding in Language Pre-training

論文地址: https://openreview.net/forum?id=09-528y2Fgf

本文針對BERT提出了一種新的位置編碼方法—Transformer with Untied Positional Encoding(TUPE),它通過兩種方法改進了現有的方法,即解開單詞和位置之間的相關性,以及解開序列位置上的[CLS]。大量實驗表明,TUPE具有較好的性能。

DEBERTA:帶有解耦注意力的解碼增強BERT

DeBERTa: Decoding-enhanced BERT with Disentangled Attention

論文地址: https://openreview.net/forum?id=XPZIaotutsD

本文提出了兩種改進BERT預訓練的方法:第一種方法是分散注意機制,該機制使用兩個向量分別對每個單詞的內容和位置進行編碼來表示每個單詞,并使用分散矩陣計算單詞之間在內容和相對位置上的注意力權重;第二個方法是一個增強的掩碼解碼器,它取代了輸出的Softmax層來預測用于MLM預訓練的掩碼令牌。使用這兩種技術,新的預訓練語言模型DeBERTa在許多下游NLP任務上表現都優于RoBERTa和BERT。

把圖片當作16乘16的詞:用于大規模圖像識別的Transformer

An Image Is Worth 16X16 Words: Transformers for Image Recognition at Scale

論文地址: https://openreview.net/forum?id=YicbFdNTTy

本文提出在視覺任務中的Transformer—Vision Transformer(ViT)。圖像對卷積神經網絡的依賴不是必要的,并且將純transformer直接應用于圖像patch序列可以很好地執行圖像分類任務。本文的實驗表明,當對大量數據進行預訓練并將其傳輸到中等大小或較小的圖像識別基準時,與最先進的卷積網絡相比,ViT可獲得出色的結果,同時訓練所需的計算資源也大大減少。

論文細節

1

156cf67e-92a2-11eb-8b86-12bb97331649.png

動機

因為 Transformer 在結構上不能識別來自不同位置的 token,一般需要用 positional embedding 來輔助。最簡單的做法就是在 input token embedding 上直接加 positional embedding (NSP loss現在基本不用,所以這里不再考慮 segment embedding)。然后在 Transformer 的 self-attention 里,會把 input 用三個矩陣映射到不同的空間,Q,K,V,接著把 Q 和 K 做點積,過 softmax ,得到 attention 的 weight 。因此,在第一層 Transformer 的 QK 點積 ,我們可以得到:

15aa69b4-92a2-11eb-8b86-12bb97331649.png

其中 是self attention matrix在進行softmax之前第i行第j列的元素,代表第i個token對第j個token的注意力大小, 是 token embedding,是position embedding,、是映射Q和K所用的矩陣。作者認為代表token和position的交叉的中間兩項沒有給self attention做出貢獻,為了驗證該想法,作者對展開后的四項進行了可視化,如Figure 2所示,可以看到中間兩項看起來很均勻,說明position 和 token 之間確實沒有太強的關聯。

15caaaee-92a2-11eb-8b86-12bb97331649.png

同時,作者認為 token 和 position 用了相同的矩陣做 QKV 的變換。但 position 和 token 所包含的信息不一樣,共享矩陣也不合理。

方法

為了解決上述問題,作者將self attention做了如下改動:

160b1674-92a2-11eb-8b86-12bb97331649.png

其中,、是把 positional embedding 映射到 Q 和 K 所用的矩陣,分母中的根號 2d 是為了保持量綱。簡單來說,作者去掉了 position 和 token 之間的交叉,同時用了不同的變換矩陣。需要注意的是,在多層的 Transformer 模型里,比如BERT,上面式子的第二項在不同層之間是共享的。因此,這里僅需要算一次,幾乎沒有引入額外的計算代價。

作者還提出,在上述的公式中,可以再添加一個與相對位置相關的偏置項,即

16279e16-92a2-11eb-8b86-12bb97331649.png

作者在文中使用了T5文章中提出的相對位置編碼。

另外,作者還特殊處理了 [CLS] token 的 position,使其不會因 positional locality 而忽略了整個句子的信息。具體來說,在的第二項,即與位置相關的注意力計算中,作者將[CLS] 對其他token的注意力以及其他token對[CLS]的注意力額外引入了兩個參數,這兩個參數與位置信息無關,是一個可學習的標量,這樣就完成了和[CLS]相關注意力的計算。

164dda86-92a2-11eb-8b86-12bb97331649.png

166fc97a-92a2-11eb-8b86-12bb97331649.png

模型整體的架構如下

16a25110-92a2-11eb-8b86-12bb97331649.png

實驗

作者首先使用TUPE模型以類似BERT的方式進行預訓練,然后在GLUE數據集下進行微調。其中-A代表僅使用了絕對位置編碼,-R代表在絕對位置編碼的基礎上增加了相對位置編碼(即偏置項)。mid表示訓練了300k步的中間結果,tie-cls代表移除對[CLS]的特殊處理,d代表為詞和位置使用不同的投影矩陣。

16f9e506-92a2-11eb-8b86-12bb97331649.png

結果表明,添加相對位置信息對下游任務效果有一定提升;TUPE模型的效果持續優于BERT模型的效果;TUPE僅訓練300k-step(30%)的結果已經可以和BERT等模型的效果相比較;對[CLS] token的特殊處理和使用不同的投影矩陣均可以增加模型性能。

分析

作者最后對TUPE和BERT的預訓練過程進行了分析,結果表明,TUPE不僅最后比 baseline 要好,并且可以在 30% (300k-step) 的時候,就達到 baseline 在 1000k-step 時的效果。

17430006-92a2-11eb-8b86-12bb97331649.png

最后作者還對TUPE學習到的多個head得到的注意力矩陣進行了可視化,作者發現,不同的head捕捉到了不同的注意力模式,作者還對下圖中的幾種進行了命名,如 attending globally; attending locally; attending broadly; attending to the previous positions; attending to the next positions 等。

17735062-92a2-11eb-8b86-12bb97331649.png

2

179e6b58-92a2-11eb-8b86-12bb97331649.png

動機

和上一篇文章類似,文章也是對self attention的結構進行了重構,與上篇文章不同的是,文章直接從相對位置出發,認為在一個序列中的第i個token可以用兩個向量對其進行表示,分別是 和 ,分別代表了該token的內容信息和相對第j個token的相對位置信息。那么第i個token和第j個token的注意力計算可以拆解為如下公式:

17c3e3ba-92a2-11eb-8b86-12bb97331649.png

那么注意力可以解耦成四個部分,分別是內容和內容、內容和位置、位置和內容、位置與位置。作者認為第四項相對位置和相對位置的交叉無法給注意力提供有效信息,可以舍棄,因此作者提出了解耦注意力機制。

同時,作者認為現有的預訓練、微調模式存在一些GAP,首先它們的任務不同,預訓練階段是直接預測被MASK掉的token,微調階段是拿句子表示再添加額外的網絡層去完成下游任務,為了彌補這種GAP,作者提出了解碼增強的BERT。

方法

為了解決上述問題,作者將self attention做了如下改動:

18007730-92a2-11eb-8b86-12bb97331649.png

在解耦注意力中,作者拋棄了位置與位置部分,并且認為內容和位置的投影矩陣是異質的,因此引入了新參數 和 ,其中 P是跨所有層共享的相對位置嵌入向量。其中 函數的定義如下:

183197ca-92a2-11eb-8b86-12bb97331649.png

該函數定義了token之間的相對距離,計算token之間的注意力機制的時候,將通過該公式計算token和token之間的相對距離矩陣,則相對位置向量則可以通過事先定義的embedding層取出。作者還提出了一種計算解耦注意力的高效算法,可以有效地減小空間復雜度。

上述的注意力計算中中僅包含了相對位置信息,作者認為只有相對位置也不好,最好能把絕對位置信息也加進去,作者給了兩張添加的方式。第一種方式是在輸入的時候,把絕對位置信息添加到輸入的token embedding中;第二種方式是在最后一兩層再添加到前面那些層輸出的隱向量中。

考慮到BERT等預訓練模型在預訓練和微調時不一樣,預訓練的時候,bert的輸出經過softmax后,直接給出概率。微調的時候,bert的輸出會經過一些與任務相關的decoder。作者將掩碼語言模型(MLM)視為任何微調任務,并添加一個任務特定解碼器,該解碼器被實現為兩層 Transformer 解碼器和 Softmax 輸出層,用于預訓練。所以作者這里將預訓練和微調的模型盡可能相近,模型共有13層,前11層稱為encoder,后2層參數共享,稱為decoder,然后微調的時候,前12層保留,然后和bert一樣進行各類任務的微調。

實驗

作者按照 BERT 的設置預訓練DeBERTa,和BERT不同的是,作者使用了 BPE 詞匯表。對于訓練數據,作者使用 了 Wikipedia(English Wikipedia dump;12GB)、BookCorpus(6GB)、OPENWEBTEXT(public Reddit content;38GB)和 STORIES(CommonCrawl 的子集;31GB)。重復數據消除后的總數據大小約為 78GB。我們使用 6 臺 DGX-2 機器和 96 個 V100 GPU 來訓練模型。單個模型訓練,batch size 設置為 2K,1M 的 steps,大約需要 20 天的時間。

作者將預訓練好的模型在GLUE數據集上進行微調,表 1 顯示,與 BERT 和 RoBERTa 相比,DeBERTa 在所有任務中始終表現得更好。同時,DeBERTa 在八項任務中有六項優于 XLNet。特別是,MRPC(1.7% 超過 XLNet,1.6% 超過 RoBERTa)、RTE(2.2% 超過 XLNet,1.5% 超過 RoBERTa)和 CoLA(0.5% 超過 XLNet,1.5% 超過 RoBERTa)的改進非常顯著。

185938fc-92a2-11eb-8b86-12bb97331649.png

作者還使用了其他數據集來評估 DeBERTa,分別是(1)問答:SQuAD v1.1、SQuAD v2.0、RACE、ReCoRD 和 SWAG;(2)自然語言推理:MNLI;(3)NER:CoNLL-2003。為了進行比較,他們還將 Megatron 分為三種不同的模型尺寸:Megatron 336M、Megatron 1.3B 和 Megatron 3.9B,它們使用與 RoBERTa 相同的數據集進行訓練。與之前的 SOTA 模型(包括 BERT、RoBERTa、XLNet 和 Megatron336M)相比,DeBERTa 在這 7 項任務中的表現始終更優。盡管 Megatron1.3B 是 DeBERTa 的 3 倍大,DeBERTa 在四個基準中的三個方面仍然可以超過 Megatron1.3B。結果表明,在不同的下游任務中,DeBERTa 算法都具有較好的性能。

191544ac-92a2-11eb-8b86-12bb97331649.png

作者還對DeBERTa進行了消融實驗,-EMD 是沒有增強解碼器的DeBERTa模型。C2P 是沒有內容-位置項的DeBERTa模型。P2C 是沒有位置-內容項的DeBERTa模型。作者發現刪除 DeBERTa 中的任何一個組件都會導致所有基準測試的性能下降。

19ab9380-92a2-11eb-8b86-12bb97331649.png

最后作者還研究了注意力機制模式和預訓練模型的有效性。結果表明,在預訓練的訓練過程中,DeBERTa 的表現一直優于 RoBERTa-ReImp,并且收斂速度更快。

3

19e52668-92a2-11eb-8b86-12bb97331649.png

動機

本篇文章跟位置編碼的關系不是特別大,但文章將Transformer在圖像識別領域中完全代替了卷積神經網絡。近年來,Transformer已經成了NLP領域的標準配置,但是CV領域還是CNN(如ResNet, DenseNet等)占據了絕大多數的SOTA結果。最近CV界也有很多文章將transformer遷移到CV領域,雖然已經有很多工作用self-attention完全替代CNN,且在理論上效率比較高,但是它們用了特殊的attention機制,無法從硬件層面加速,所以目前CV領域的SOTA結果還是被CNN架構所占據。文章不同于以往工作的地方,就是盡可能地將NLP領域的transformer不作修改地搬到CV領域來。

方法

NLP處理的語言數據是序列化的,而CV中處理的圖像數據是三維的(長、寬和channels)。所以需要一個方式將圖像這種三維數據轉化為序列化的數據。文章中,圖像被切割成一個個patch,這些patch按照一定的順序排列,就成了序列化的數據。作者首先將圖像分割成一個個patch,然后將每個patch reshape成一個向量,得到所謂的flattened patch。

作者對上述過程得到的flattened patches向量做了Linear Projection,這些經過線性映射后的向量被稱為 patch embedding(類似word embedding),一個255乘255像素的圖片,每隔16乘16個像素進行分割,則這些圖片可以被當做16乘以16的詞拼在一起。作者也為這些patch添加了位置信息,因為按照特定順序的patch是需要具備位置信息的,作者采取了常見的絕對位置編碼,給每個位置的patch學習一個位置編碼向量。

1a1e5370-92a2-11eb-8b86-12bb97331649.png

為了給圖像進行分類,作者也借鑒BERT在第一個patch前添加了[CLS] patch,該patch經過Transformer后的hidden vector被用于對圖形進行分類的特征。

文中還提出了一個比較有趣的解決方案,將transformer和CNN結合,即將ResNet的中間層的feature map作為transformer的輸入。和之前所說的將圖片分成patch然后reshape成sequence不同的是,在這種方案中,作者直接將ResNet某一層的feature map reshape成sequence,再通過Linear Projection變為Transformer輸入的維度,然后直接輸入進Transformer中。

到下游任務微調時,如果圖像的分辨率增大時(即圖像的長和寬增大時),如果保持patch大小不變,得到的patch個數將增加,即序列長度將增加。但是由于在預訓練的時候,position embedding的個數和pretrain時分割得到的patch個數相同。因此超出部分的positioin embedding在模型中是未定義或者無意義的。為了解決這個問題,文章中提出用2D插值的方法,基于原圖中的位置信息,將pretrain中的position embedding插值成更多個,這樣有利于位置編碼在面對更高分辨率圖片微調時可以更好地收斂。

實驗

作者使用提出的模型,即VIT,做了大量實驗。實驗的范式遵循預訓練-微調模型,現在某個數據集下使用大量有標簽的圖片進行預訓練,然后再在某個數據集下進行微調。下表中最上面一行指的是預訓練用的數據集,最左邊一列指的是微調使用的數據集。ViT-H/14指的是,使用了ViiT-Huge模型的設置,并且patch的size是14乘14的。Noisy Student是ImageN上的SOTA,BiT是其余任務上的SOTA。

可以看到,在JFT數據集上預訓練的ViT-L/16性能比BiT-L(也是在JFT上進行預訓練)更好。模型更大一點的ViT-H/14性能進一步提升,尤其是在更具挑戰性的任務上,如ImageNet、CIFAR-100和VTAB,且所需的計算資源依舊遠小于之前SOTA。在I21K上預訓練得到的ViT-L/16性能也非常不錯,需要的計算資源更少,在8TPU上訓練30天即可。

1a6d6bf4-92a2-11eb-8b86-12bb97331649.png

作者進一步使用可視化的結果分析了使用不同預訓練數據集和不同復雜度模型的情況下,下游任務的表現。作者發現,在預訓練數據集比較小的情況下,大模型(ViT-L)性能還是不如小模型(ViT-B);當預訓練數據集比較大的情況,大模型效果會更好。作者得出的結論是,在小數據集上,卷積的歸納偏置是是非常有用的,但在大數據集上,直接學relevant pattern就夠了,這里的relevant pattern應該指的是patch和patch之間的相關模式。

1af0d0f2-92a2-11eb-8b86-12bb97331649.png

總結

此次 Fudan DISC 解讀的三篇論文圍繞Transformer以及位置編碼展開。對于序列來講,位置編碼的影響十分重要,詞和句子的位置信息對語義的影響是巨大的,如何在Transformer模型中有效地融合位置信息是十分重要的。

編輯:jq

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 編碼
    +關注

    關注

    6

    文章

    949

    瀏覽量

    54876
  • CV
    CV
    +關注

    關注

    0

    文章

    53

    瀏覽量

    16879
  • 卷積神經網絡

    關注

    4

    文章

    367

    瀏覽量

    11883

原文標題:【Transformer】Transformer 中的位置編碼 -- ICLR 2021

文章出處:【微信號:zenRRan,微信公眾號:深度學習自然語言處理】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    編碼器邏輯功能解析與實現

    在現代電子技術與自動化控制系統編碼器作為一種關鍵性傳感器,扮演著舉足輕重的角色。它通過將機械位移或旋轉轉換成數字信號,為各種設備提供了精確的位置、速度和方向信息。本文將深入探討編碼
    的頭像 發表于 11-30 14:35 ?500次閱讀

    編碼器七種常見故障解析

    編碼器,作為工業自動化系統不可或缺的重要組件,承擔著將旋轉或線性位移轉換為電信號,從而實現對設備精確控制和反饋的關鍵任務。然而,在實際應用編碼器也會遇到各種故障,影響其正常工作。
    的頭像 發表于 11-25 08:58 ?953次閱讀

    編碼器在機器人技術的應用 編碼器在傳感器系統的作用

    測量機器人位置和移動的裝置,它能夠將機器人位置和運動轉化為數字信號,以供機器人控制系統使用。編碼器在機器人技術的應用主要體現在以下幾個方面: 定位控制 :
    的頭像 發表于 11-24 10:02 ?651次閱讀

    編碼器與位置控制系統的結合應用

    編碼器與位置控制系統的結合應用在現代工業自動化和機器人技術扮演著至關重要的角色。以下是對這一結合應用的分析: 一、磁編碼器的基本原理 磁編碼
    的頭像 發表于 11-23 09:26 ?425次閱讀

    編碼器工作原理解析編碼器與光編碼器的比較

    編碼器工作原理解析編碼器是一種利用磁場變化來測量角度和位置的傳感器。它的工作原理基于霍爾效應或磁阻效應。以下是磁編碼器的基本工作原理:
    的頭像 發表于 11-23 09:06 ?994次閱讀

    電機控制系統編碼器概述與作用

    編碼器分辨率是描述編碼器在測量運動過程中所能分辨的最小位置變化量的指標。理解編碼器分辨率對于設計和實現高精度的運動控制系統至關重要。以下是對編碼
    的頭像 發表于 08-17 19:49 ?605次閱讀

    AGV輪轂電機編碼

    編碼器還可以提供電機的絕對位置信息,這對于AGV系統的定位和校準至關重要。在AGV系統,一般會使用Z信號來表示編碼器的絕對位置。Z信號是一
    的頭像 發表于 07-22 11:33 ?554次閱讀
    AGV輪轂電機<b class='flag-5'>中</b>的<b class='flag-5'>編碼</b>器

    旋轉編碼器在PLC怎么編程

    在工業自動化領域,旋轉編碼器與可編程邏輯控制器(PLC)的結合應用極為廣泛。旋轉編碼器通過提供精確的旋轉角度或位置信息,為PLC提供反饋信號,進而實現對設備的精確控制。本文將詳細介紹旋轉編碼
    的頭像 發表于 06-17 09:24 ?1814次閱讀

    編碼器在自動化系統的應用

    在現代自動化系統編碼器作為一種關鍵的位置和速度檢測裝置,發揮著不可替代的作用。它能夠將電機的角位移或直線位移轉換為可計量的電信號,為控制系統提供精確的位置反饋和速度控制。本文將詳細
    的頭像 發表于 06-13 14:50 ?912次閱讀

    絕對值編碼器的工作原理及其在電機控制的應用

    絕對值編碼器在電機控制系統的應用 在電機控制系統,絕對值編碼器帶來了精確的位置反饋信號。依據編碼
    的頭像 發表于 05-21 10:55 ?1242次閱讀
    絕對值<b class='flag-5'>編碼</b>器的工作原理及其在電機控制<b class='flag-5'>中</b>的應用

    視覺Transformer基本原理及目標檢測應用

    視覺Transformer的一般結構如圖2所示,包括編碼器和解碼器兩部分,其中編碼器每一層包括一個多頭自注意力模塊(self-attention)和一個位置前饋神經網絡(FFN)。
    發表于 04-03 10:32 ?3629次閱讀
    視覺<b class='flag-5'>Transformer</b>基本原理及目標檢測應用

    脈沖編碼位置未確定如何解除,脈沖編碼位置怎么調

    再次通電后,如果仍然顯示“脈沖編碼位置未確定”,可以在關節進給的模式下,使出現問題的軸朝任一方向旋轉,直到按下RESET鍵時不再出現報警。
    的頭像 發表于 02-25 11:21 ?2938次閱讀

    編碼器原點設定方法 | 編碼器原點丟失怎樣找回

    ? 編碼器原點有什么功能 編碼器的原點功能主要用于確定位置參考、啟動和停止控制、運動方向判斷以及定位回歸操作。這些功能對于許多應用位置
    的頭像 發表于 02-21 15:02 ?1956次閱讀

    編碼器零點位置怎么看 | 編碼器零位怎樣確定

    。這些標記點通常很顯眼且容易識別。 2. 編碼器數據:通過讀取編碼器的輸出數據,可以觀察到編碼器相對于其零點位置編碼計數值。在
    的頭像 發表于 02-18 18:28 ?2485次閱讀
    <b class='flag-5'>編碼</b>器零點<b class='flag-5'>位置</b>怎么看 | <b class='flag-5'>編碼</b>器零位怎樣確定

    深度解析大語言模型的位置編碼及其外推性

    我們先來回顧一下絕對位置編碼的問題。絕對位置編碼通過可學習的 Positional Embedding 來編碼位置信息,這種方案直接對不同的
    發表于 01-16 11:37 ?847次閱讀
    深度<b class='flag-5'>解析</b>大語言模型的<b class='flag-5'>位置</b><b class='flag-5'>編碼</b>及其外推性
    主站蜘蛛池模板: 日韩 国产 中文 无码| 国产精品久AAAAA片| 2019天天射干网站| 超级最爽的乱淫片免费| 幻女FREE性俄罗斯学生| 强开乳罩摸双乳吃奶视频| 亚洲成 人a影院青久在线观看| 99九九精品国产高清自在线| 荷兰少归BVBV| 日日噜噜夜夜躁躁狠狠| 51xx午夜影视福利| 娇妻被朋友玩得呻吟在线电影| 色迷迷电影| a级老头和老太xxxx| 久久黄色免费网站| 我的漂亮朋友在线观看全集免费 | 国产精品资源在线观看网站| 嫩草影院久久精品| 伊人久久大香线蕉综合影| 国产精品久久久久无码AV色戒| 欧美性猛交AAA片| 97国产成人精品免费视频| 久久理伦片琪琪电影院| 亚洲欧美一区二区三区久久| 国产精品视频人人做人人爽| 人妖操女人| xxxxx俄罗斯| 欧美日本韩国一二区视频| 992交通广播| 媚药调教被撑到合不拢h| 2020最新国产自产精品| 久草在在线免视频在线观看| 亚洲欧美综合中文字幕| 国产亚洲精品久久777777| 午夜理论片YY4399影院| 国产成人无码精品久久久免费69| 日本特交大片免费观看| 成人短片迅雷下载| 日韩AV爽爽爽久久久久久| yellow视频免费观看高清在线| 欧美日韩另类在线专区|