日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

图灵奖得主Jeff Ullman:机器学习不是数据科学的全部!统计学也不是!

發(fā)布時間:2024/7/5 编程问答 47 豆豆
生活随笔 收集整理的這篇文章主要介紹了 图灵奖得主Jeff Ullman:机器学习不是数据科学的全部!统计学也不是! 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.

文 | Jeff Ullman
源 | 智源社區(qū)

3月31日,2020年圖靈獎重磅出爐,頒給了哥倫比亞大學計算機科學名譽教授 Alfred Vaino Aho 和斯坦福大學計算機科學名譽教授 Jeffrey David Ullman。

Jeff Ullman 是數(shù)據(jù)科學領域的巨擘,他的研究興趣包括數(shù)據(jù)庫理論、數(shù)據(jù)庫集成、數(shù)據(jù)挖掘等。在去年撰寫的一篇評論文章中,他用淺顯的語言重新定義了,統(tǒng)計學、數(shù)據(jù)科學和機器學習之間的交叉點,并破除了其中的誤讀。他認為,盡管機器學習非常重要,但它遠非實現(xiàn)有效數(shù)據(jù)科學所需的唯一工具。

Have we missed the boat again?

多年來,數(shù)據(jù)庫領域有一種言論認為,數(shù)據(jù)庫系統(tǒng)正在變得無關緊要。

大家似乎持一種絕望的心態(tài)。“have we missed the boat-again”這句話,在數(shù)據(jù)庫社區(qū)里似乎司空見慣[8]。

但我想論證,數(shù)據(jù)庫以及由數(shù)據(jù)庫研究而產生的技術,對于“數(shù)據(jù)科學”仍然是必不可少的,特別是在解決科學、商業(yè)、醫(yī)學等應用領域的重要問題上。

數(shù)據(jù)庫系統(tǒng)的核心,一直是如何盡最大可能處理最大的數(shù)據(jù)量,無論是以MB為單位的企業(yè)工資單數(shù)據(jù)、TB為單位的基因組信息,還是PB為單位的的衛(wèi)星輸出信息。

因此,數(shù)據(jù)庫的工作就是:研究一切相關數(shù)據(jù)。

為了論證這一觀點,我主要回答三個問題:

1. 統(tǒng)計真的是數(shù)據(jù)科學的重要組成部分嗎?

2. 機器學習就是數(shù)據(jù)科學的全部嗎?

3. 數(shù)據(jù)科學是否會對社會規(guī)范是否構成威脅?

我對這三個問題的回答都是“no”。我將試著依次回答這三個問題。

數(shù)據(jù)科學 vs. 統(tǒng)計學:誰是誰的子集?

幾年前,我受邀參加了國家研究委員會(NRC)一個叫做“數(shù)據(jù)-科學-教育圓桌會議”的小組(詳見 [16])。

這個圓桌不是由 NRC 的計算機科學部門組織的,而是由統(tǒng)計部門組織的。參與者中,統(tǒng)計學家和計算機科學家的數(shù)量差不多,加上其他學科的一些人。當時的收獲主要是看統(tǒng)計學家如何思考這個數(shù)據(jù)的世界及其應用。最明顯的一點是,統(tǒng)計學領域將數(shù)據(jù)科學視為自己的領域。

公平地講,首先讓我們明確一點,我非常尊重統(tǒng)計學家和他們所做的工作。統(tǒng)計學在現(xiàn)代數(shù)據(jù)研究中變得越來越重要,包括但不限于機器學習。許多統(tǒng)計學家開始像數(shù)據(jù)庫界或者更其他計算機科學界那樣,關注計算和數(shù)據(jù)分析。僅舉一個小例子,我最喜歡的技術之一是局部敏感哈希算法(LSH),這是一個直接來源于數(shù)據(jù)庫社區(qū)的想法。

然而,我在斯坦福大學統(tǒng)計部門的一位同事 Art Owen 向我展示了關鍵步驟——最小哈希(minhashing),這一步驟很大程度上加速了這個過程——這是我們幾年前就應該能夠弄清楚的,但是沒有弄清楚。

然而,我在圓桌會議上的經驗也讓我感覺到,統(tǒng)計界的一些人正在努力將統(tǒng)計定義為數(shù)據(jù)科學的核心組成部分。相比之下,我更傾向于把高效處理大規(guī)模數(shù)據(jù)的算法和技術視為數(shù)據(jù)科學的中心。人們普遍認為,數(shù)據(jù)科學是一門結合了多個領域知識的學科,我對此完全贊同。但這些領域究竟是什么,它們又是如何相互作用的呢?

這個問題如此重要,以至于不同社區(qū)紛紛發(fā)表維恩圖來證明他們自己在數(shù)據(jù)科學中的中心地位。最近有一篇文章[10]對這些圖表進行了總結和評論。其他維恩圖表示相關的所有觀點,請查詢維基百科數(shù)據(jù)科學維恩圖。

康威圖表

由于 Drew Conway的緣故(德魯 · 康威,美國數(shù)據(jù)科學家,因其對數(shù)據(jù)科學的維恩圖定義以及將數(shù)據(jù)科學應用于研究恐怖主義而聞名),統(tǒng)計學家們都習慣使用特定的圖表。這個圖表顯示了三個相互交叉的集合: “黑客技能”、“數(shù)學和統(tǒng)計學”和“實質性專業(yè)知識”。在圓桌會議上,這個圖表被多次展示,來說明統(tǒng)計學的重要性,我還看到統(tǒng)計學家在其他幾個場合展示同樣的圖表,以解釋他們的領域對數(shù)據(jù)科學的重要性。我復制了圖1中的圖表,但是我添加了一些點評來解釋圖表中存在誤區(qū)之處。(如下圖)

▲圖1: 數(shù)據(jù)科學的康威維恩圖

事實上,幾乎圖表中的每一個區(qū)域在某種程度上都有誤導性。

1、首先,一個小問題: 所謂的“實質性專門知識”一般要統(tǒng)稱為”領域知識”或類似的東西。

2、最嚴重的問題是將計算機科學稱為“黑客技能”。計算機科學給數(shù)據(jù)科學帶來的遠不止是編寫代碼的能力。我們提供算法、模型和框架,來解決各種各樣的問題。所有這些在處理數(shù)據(jù)時都是必不可少的。

3、“傳統(tǒng)研究”在圖中顯示為數(shù)學/統(tǒng)計與應用的交叉領域。換句話說,在這種形式的研究中,人們只考慮實際應用,而不編寫任何代碼,因此不會影響現(xiàn)實世界。我不知道這是哪來的傳統(tǒng),但我認為,這可不是數(shù)據(jù)庫社區(qū)的傳統(tǒng)。

4、機器學習在這個圖表中有一個奇怪的位置。它被描述為“黑客”加上數(shù)學/統(tǒng)計。這意味著機器學習和實際應用沒有任何關系。實際上,它與應用之間有著千絲萬縷的聯(lián)系,這就是為什么今天機器學習的算法如此受重視,不僅在數(shù)據(jù)庫界,而且在整個計算機科學界都是如此。

5.然后還有 Conway 所說的“危險區(qū)域”——通過編寫代碼來解決應用領域中的問題,而不需要統(tǒng)計學家的明智指導。幾乎所有的數(shù)據(jù)科學都是這樣的。舉一個例子,谷歌和其他郵件服務商在檢測網(wǎng)絡釣魚郵件方面做得很好。有多好?我們真的不知道,即使我們今天可以做一個統(tǒng)計分析,明天也不會奏效,因為這種威脅是不斷變化的。真正的危險是我們本來可以做得更好,卻放任那些騙子騙走可憐蟲們畢生的積蓄。

我的維恩圖

我也提出了自己的維恩圖(圖2) ,我相信它能更好地描述這些領域之間的關系。有計算機科學和各個其他領域的科學,數(shù)據(jù)科學就位于這些領域交叉的某些地方。機器學習是計算機科學的一個分支——是當前一個非常重要的子領域。機器學習一部分可以用于數(shù)據(jù)科學,也有很多其他和計算相關的用途。

這當中很多應用現(xiàn)在被認為是“人工智能”,比如無人駕駛汽車或入侵檢測。最后,我認為數(shù)學和統(tǒng)計學對于所有的計算機科學都是非常重要的工具,雖然我圖表中所畫的小氣泡并沒有充分展示出它們的重要性。這樣畫是為了強調它們并不真正直接影響領域科學,而是通過在它們的幫助下開發(fā)出的軟件來產生影響。

▲圖2: 計算機科學、機器學習和統(tǒng)計學之間的關系(個人觀點)

最大的區(qū)別: 數(shù)據(jù)庫和統(tǒng)計學價值體系

我所畫的圖中最有爭議的是,數(shù)學/統(tǒng)計學并不能直接解決領域的應用。畢竟,康威圖所說的“傳統(tǒng)研究”就是這么做的。但是,盡管應用程序和數(shù)學/統(tǒng)計學之間可能存在繞過計算以外的交互,但我認為這種交互很少會從應用層面產生什么實際的好處。

為了說明這種區(qū)別,我們來看一下數(shù)據(jù)科學教育圓桌會議第四次會議的報告[14]。其中討論的一部分集中在美國統(tǒng)計協(xié)會舉辦的“黑客馬拉松”上,名為“Datafest”。從表面上看,這個活動就像我們通常看到的計算機科學專業(yè)學生參加的黑客馬拉松。競賽團隊將得到一個來自某個應用領域的大數(shù)據(jù)集,但是在競賽評分方面有很大的不同。評分的焦點不在于是否解決了什么具體的問題,以及解決方案的質量如何。

相反,大獎頒給了“最佳數(shù)據(jù)可視化、最佳外部數(shù)據(jù)使用和最佳洞察力”。換句話說,黑客馬拉松上獲獎是因為你做了一些統(tǒng)計學家感興趣的事情,而不是解決了別人的實際問題。我希望讀者能從另一個角度看問題,即目標是服務,而不是自娛自樂。面向計算機科學的 Kaggle 競賽[13]正是如此。

莫把萬物歸為機器學習

現(xiàn)在,讓我們來看看機器學習的興起是如何影響數(shù)據(jù)的使用的。毫無疑問,機器學習已經對我們利用數(shù)據(jù)解決問題的能力產生了巨大的影響。然而,我并不認為機器學習可以完全取代數(shù)據(jù)庫社區(qū)開發(fā)的算法。我希望讀者可以考慮三個問題:

  • 許多涉及“大數(shù)據(jù)”的問題其實并不是真正的機器學習問題;

  • 很多機器學習倡導者會把原本不屬于機器學習的方法歸類到其中;

  • 許多機器學習方法產生的神秘模型不可解釋或不可證明。

  • 機器學習并非數(shù)據(jù)科學的全部

    我認為,機器學習的一個公平的定義是利用數(shù)據(jù)創(chuàng)建某種模型的算法,并從中可以得到問題的答案。例如,可以使用機器學習建立垃圾郵件模型,將給定的電子郵件來喂養(yǎng)模型,從而判斷是或不是垃圾郵件。但并非所有有用的解決方案都可以用模型來表示。例如,我們在前面提到了局部敏感哈希數(shù)據(jù)庫(LSH) ,它是數(shù)據(jù)庫社區(qū)處理數(shù)據(jù)的一種重要技術。LSH 是一種用于在數(shù)據(jù)集中查找類似項的技術,使用它就不必查看所有數(shù)據(jù)對了。在實際應用中,LSH 是一個非常強大的工具,但是它不屬于機器學習模型。

    機器學習倡導者有時把原本不屬于機器學習的方法歸入其中

    比如說,聚類,它被定義為機器學習的一個分支,盡管早在機器學習出現(xiàn)之前,聚類就已經被研究過了。梯度下降法是另一個早于機器學習的例子,然而不知何故被普遍認為是一個機器學習的分支。另一個重要的例子是關聯(lián)規(guī)則(一種常用的無監(jiān)督學習算法)。關聯(lián)規(guī)則于1993-1994年由拉凱什 · 阿格拉瓦爾和朋友首創(chuàng),比幾乎所有的機器學習概念都要早。我甚至記得曾經和一位機器學習的倡導者談起,他提出 LSH“一定是機器學習,因為它真的是一個很好的方法。”但事實上,LSH 就是一個與機器學習毫無關系的大數(shù)據(jù)算法。

    解釋能力

    通常,機器學習算法會得出正確的結論,而這些結論只有通過所展示的模型才能夠解釋。而這種模型往往是如此復雜,以至于對于普通用戶來說毫無意義。更重要的是,這個模型,即便能夠給出正確的診斷,但可能它的推理隱藏在處理一張百萬像素的圖像中。另一方面,有時候,我們有權要求解釋。例如,如果你的保險公司提高了你的保險費率,原因是一些預測汽車事故的模型顯示你的事故發(fā)生率提高了,至少你得知道為什么會這樣。

    但是,非機器學習方法通常比機器學習模型更可解釋。為了看出區(qū)別,以通過關聯(lián)規(guī)則識別垃圾郵件為例。產生一組“規(guī)則”,在這種情況下可以是一組單詞,它們在電子郵件中的出現(xiàn)表明它是垃圾郵件。

    您可能認為這些規(guī)則就是垃圾郵件的模型,這也就是為什么機器學習倡導者認為關聯(lián)規(guī)則屬于機器學習。但實際上,用于尋找關聯(lián)規(guī)則的算法并沒有從數(shù)據(jù)中“學習”到一個模型。

    他們只是簡單地計算包含某些單詞的垃圾郵件的數(shù)量,如果這個數(shù)量足夠高,他們就宣布一條規(guī)則,即包含這些單詞的郵件是垃圾郵件。假如一個規(guī)則說,包含{ Nigerian,prince }單詞的電子郵件是垃圾郵件。

    相比之下,即使是最簡單的機器學習技術,比如學習每個可能的單詞的(正負)權重,以及在權重總和超過閾值時聲明是垃圾郵件,也比基于關聯(lián)規(guī)則的解決方案更準確。

    但問題是關聯(lián)規(guī)則方法是可解釋的,而機器學習模型則不能。如果我真的是一個尼日利亞王子,我所有的電子郵件都被關聯(lián)規(guī)則方法判定為垃圾郵件,那么至少我可以理解其中的原因。而另一方面,如果你問 gmail 為什么它判斷某些東西是垃圾郵件,它通常的回答類似于“它看起來像其他垃圾郵件。”也就是說,gmail在使用的模型告訴你它是垃圾郵件,其余的無可奉告。

    我們不要責怪數(shù)據(jù)

    我們經常會把社會的弊病歸咎于數(shù)據(jù)。錯誤主要來源于:

  • 人們有意或無意地錯誤使用數(shù)據(jù)。

  • 數(shù)據(jù)忠實地反映了現(xiàn)實問題。

  • 數(shù)據(jù)濫用

    在數(shù)據(jù)-科學-教育圓桌會議上,在第五次會議上有一個關于數(shù)據(jù)倫理的討論[15]。舉例說明,一個城市希望在犯罪高發(fā)的地區(qū)部署警力。警察們手握逮捕發(fā)生地的數(shù)據(jù),結果是他們在那些地區(qū)確實逮捕了更多的人。但是,逮捕行動并不僅僅反映犯罪的發(fā)生,也反映了警察到場進行逮捕行動本身。數(shù)據(jù)造成了誤區(qū)。就是說,歷史原因,警察優(yōu)先被派往某些地區(qū),數(shù)據(jù)真實地反映出,在那些地區(qū)有更多的人被捕。也許本質上只是因為,在警力不足的地方,逮捕率較低。

    數(shù)據(jù)可能使偏見永久化的另一個常見例子,一家公司在決定晉升時總是歧視婦女。他們希望利用機器學習建立一個AI系統(tǒng),來處理簡歷,并識別那些與他們成功晉升員工相似的特征。

    但數(shù)據(jù)顯示,女性候選人往往不會成功,機器學習算法便從數(shù)據(jù)中學習,從而拒絕女性的申請。這些數(shù)據(jù)再次延續(xù)了現(xiàn)有的偏見。但是這些數(shù)據(jù)并沒有產生偏見,而是人產生了偏見。

    數(shù)據(jù)反映了一個我們不喜歡的世界

    有一種對數(shù)據(jù)使用的指責是,由數(shù)據(jù)產生的系統(tǒng)反映了說話者所反對的社會的某些東西。這種誤讀的一個明顯例子涉及 Word2Vec [13] ,這是谷歌幾年前開發(fā)的一個系統(tǒng)(后來被BERT所取代) ,該系統(tǒng)將單詞嵌入到高維向量空間中,從而使具有相似意義的單詞具有相近的向量。直觀的想法是看看通常圍繞在單詞 w 周圍的單詞。那么 w 的向量就是與其周圍關聯(lián)單詞的方向的加權組合。例如,我們預期「可口可樂」和「百事可樂」有相似的向量,因為人們談論它們的方式大致相同。

    當觀察到某些向量方程的規(guī)律時,問題就出現(xiàn)了,例如作為向量,

    London ? England + France = Paris

    也就是說,倫敦和巴黎,作為各自國家的首都和最大的城市,周圍有許多反映這種地位的詞匯。我們預期倫敦周圍會有更多與英格蘭有關的詞匯,所以把它們拿走,代之以與法國有關的詞匯。

    這個觀察結果無關緊要,但是其他方程式引起了一些嚴重的爭議,例如,

    doctor ? man + woman = nurse

    這個方程式,它是在要求“給我找一個像醫(yī)生一樣的職業(yè)詞匯,但要更傾向于女性。”。大約50% 的醫(yī)生是女性,但接近90% 的護士是女性。我們希望醫(yī)生和護士這兩個詞是相似的,但是后者更多地出現(xiàn)在「她」這樣的詞附近。所以這個等式是有一定道理的。

    這些負面例子真正反映的是,在這個社會中,女性更有可能和護理崗位聯(lián)系到一起。我同意,很可能在不遠的將來,情況會變化。但我的觀點是: 不要責怪數(shù)據(jù)。像 Word2Vec 或者 BERT 這樣的系統(tǒng),當在一個像維基百科這樣的大型語料庫上訓練時,將會反映出廣大公眾使用的語言,而這種數(shù)據(jù)的使用又會反映出人們普遍認為是真實的東西,不管我們是否喜歡這個真實。

    The Last Word

    我希望讀者可以吸收到以下想法:

    • 數(shù)據(jù)及其管理仍然是數(shù)據(jù)科學的本質。

    • 盡管機器學習非常重要,但它遠非實現(xiàn)有效數(shù)據(jù)科學所需的唯一工具或想法。

    • 盡管數(shù)據(jù)有誤用的情況,但如果數(shù)據(jù)反映的是世界的本來面目,而不是我們希望的那樣,我們就不應該責怪數(shù)據(jù)本身。

    尋求報道、約稿、文案投放:
    添加微信xixiaoyao-1,備注“商務合作”

    后臺回復關鍵詞【入群

    加入賣萌屋NLP/IR/Rec與求職討論群

    后臺回復關鍵詞【頂會

    獲取ACL、CIKM等各大頂會論文集!

    ?

    [1] R. Agrawal, T. Imielinski, and A. Swami, “Mining associations between sets of items in massive databases,” Proc. ACM SIGMOD Intl. Conf. on Management of Data, pp. 207–216, 1993.

    [2] R. Agrawal and R. Srikant, “Fast algorithms for mining association rules,” Intl. Conf. on Very Large Databases, pp. 487–499, 1994.

    [3] T. Bolukbasi, K.-W. Chang, J. Zou, V. Saligrama, and A. Kalai, “Man is to computer programmer as woman is to homemaker? Debiasing word embeddings,” 30th Conference on Neural Information Processing Systems, Barcelona, 2016.

    [4] A.Z. Broder, M. Charikar, A.M. Frieze, and M. Mitzenmacher, “Min-wise independent permutations,” ACM Symposium on Theory of Computing, pp. 327–336, 1998.

    [5] T. Buonocore, “Man is to doctor as woman is to nurse: the gender bias of word embeddings,” https://towardsdatascience.com/gender-bias-word-embeddings-76d9806a0e17

    [6] J. Devlin, M.-W. Chang, K. Lee, and K. Toutanova, “BERT: Pre-training of deep bidirectional transformers for language understanding,” arXiv:1810.04805, 2018.

    [7] A. Gionis, P. Indyk, and R. Motwani, “Similarity search in high dimensions via hashing,” Proc. Intl. Conf. on Very Large Databases, pp. 518–529, 1999.

    [8] B. Howe, M.J. Franklin, L.M. Haas, T. Kraska, and J.D. Ullman: “Data science education: we’re missing the boat, again,” ICDE, pp. 1473–1474, 2017.

    [9] https://www.kaggle.com/

    [10] https://www.kdnuggets.com/2016/10/battle-data-science-venn-diagrams.html

    [11] J. Leskovec, A. Rajaraman, and J.D.Ullman, Mining of Massive Datasets 3rd edition, Cambridge Univ. Press, 2020. Available for download at http://www.mmds.org

    [12] P. Li, A.B. Owen, and C.H. Zhang. “One permutation hashing,” Conf. on Neural Information Processing Systems 2012, pp. 3122–3130.

    [13] T. Mikolov, K. Chen, G. Corrado, and J. Dean, “Efficient estimation of word representations in vector space,” ArXiv:1301.3781, 2013.

    [14] https://www.nationalacademies.org/event/10-20-2017/docs/DCE05D1E271C31C585455B25E43AE9E5462ED3312DB2

    [15] https://www.nationalacademies.org/event/12-08-2017/docs/D8EE65EFC7F4B0C368D267EDAD10E5AB1BAFBE3369D2

    [16] https://www.nationalacademies.org/our-work/roundtable-on-data-science-postsecondary-education

    [17] https://en.wikipedia.org/wiki/Right to explanation

    總結

    以上是生活随笔為你收集整理的图灵奖得主Jeff Ullman:机器学习不是数据科学的全部!统计学也不是!的全部內容,希望文章能夠幫你解決所遇到的問題。

    如果覺得生活随笔網(wǎng)站內容還不錯,歡迎將生活随笔推薦給好友。

    主站蜘蛛池模板: 欧美另类性 | 亚洲精品国产日韩 | 色播99| 欧美精品videos另类日本 | 欧洲一区二区在线观看 | 一区二区三区免费看视频 | 老外毛片 | 在线免费日韩av | 欧美日韩中文在线视频 | 伊人久久色 | 亚洲a成人 | 亚洲精品一区二区三区影院忠贞 | 蜜臀视频网站 | 欧美69久成人做爰视频 | 美日韩黄色片 | 久久久久久九九九九九 | 亚洲欧洲另类 | 大肉大捧一进一出好爽视频 | 四虎最新网址在线观看 | 欧美77777| 国产在线免费av | 97精品| 日韩免费一区二区三区 | 视频国产精品 | 性一级视频 | 男人操女人动态图 | 国产专区一区二区三区 | 在线视频综合网 | 国产原创在线播放 | 国产精品成人aaaaa网站 | 999久久久| 国产 xxxx | 成人靠逼视频 | 国产一区二区三区小说 | 久久综合九色综合欧美狠狠 | 亚洲激情黄色 | 免费国产a| 亚洲五月婷婷 | jzzijzzij亚洲成熟少妇在线观看 久久久精品人妻一区二区三区 | 在线观看精品国产 | 国产精品九九九九九 | 欧美人与性动交a欧美精品 日韩免费高清视频 | 中文字幕 视频一区 | 综合网在线观看 | av导航大全| 91九色蝌蚪视频 | www.蜜桃av | 一级黄色裸体片 | 黄色片免费网站 | 亚洲男女啪啪 | 国产极品91 | 激情涩涩| 亚洲乱码日产精品bd在线观看 | 久久在线精品视频 | 九月丁香婷婷 | 亚洲午夜在线播放 | 看片国产| av2014天堂 | 在线免费观看视频 | 国产美女极度色诱视频www | jizz精品| 中文字幕+乱码+中文乱 | 91超薄丝袜肉丝一区二区 | 奇米一区二区三区 | 肉色丝袜小早川怜子av | 色人阁av | 99热国产精品 | 亚洲无码久久久久 | 欧美日韩精品一区二区三区蜜桃 | 四虎永久免费影院 | 香蕉依人 | 成人在线免费网址 | 亚洲一区二区三区 | 吖v在线| 日韩电影二区 | 亚洲国产精品久 | 成人av免费在线观看 | 日本做爰高潮又黄又爽 | 97超碰碰| 四虎网站最新网址 | 在线观看免费av网址 | 国产十八熟妇av成人一区 | 日韩视频在线免费 | 国产精品无码一区二区桃花视频 | 可以免费看的黄色网址 | 欧美久久久久久又粗又大 | 欧美整片在线 | 欧美xxxxxx片免费播放软件 | 丰满少妇在线观看bd | 国产理论 | 亚洲视频在线免费观看 | 拔插拔插海外华人永久免费 | 夜夜爽av福利精品导航 | 国产一区二区免费在线 | 亚洲插| 一区二区精品视频在线观看 | www一级片| 亚洲高清视频在线播放 | 国产无毛av|