日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 运维知识 > windows >内容正文

windows

探秘Hadoop生态12:分布式日志收集系统Flume

發布時間:2025/4/5 windows 37 豆豆
生活随笔 收集整理的這篇文章主要介紹了 探秘Hadoop生态12:分布式日志收集系统Flume 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

這位大俠,這是我的公眾號:程序員江湖。?
分享程序員面試與技術的那些事。 干貨滿滿,關注就送。?

在具體介紹本文內容之前,先給大家看一下Hadoop業務的整體開發流程:?

從Hadoop的業務開發流程圖中可以看出,在大數據的業務處理過程中,對于數據的采集是十分重要的一步,也是不可避免的一步,從而引出我們本文的主角—Flume。本文將圍繞Flume的架構、Flume的應用(日志采集)進行詳細的介紹。?
(一)Flume架構介紹?
1、Flume的概念?
?
flume是分布式的日志收集系統,它將各個服務器中的數據收集起來并送到指定的地方去,比如說送到圖中的HDFS,簡單來說flume就是收集日志的。?
2、Event的概念?
在這里有必要先介紹一下flume中event的相關概念:flume的核心是把數據從數據源(source)收集過來,在將收集到的數據送到指定的目的地(sink)。為了保證輸送的過程一定成功,在送到目的地(sink)之前,會先緩存數據(channel),待數據真正到達目的地(sink)后,flume在刪除自己緩存的數據。?
在整個數據的傳輸的過程中,流動的是event,即事務保證是在event級別進行的。那么什么是event呢?—–event將傳輸的數據進行封裝,是flume傳輸數據的基本單位,如果是文本文件,通常是一行記錄,event也是事務的基本單位。event從source,流向channel,再到sink,本身為一個字節數組,并可攜帶headers(頭信息)信息。event代表著一個數據的最小完整單元,從外部數據源來,向外部的目的地去。?
為了方便大家理解,給出一張event的數據流向圖:?
?
一個完整的event包括:event headers、event body、event信息(即文本文件中的單行記錄),如下所以:?

其中event信息就是flume收集到的日記記錄。?
3、flume架構介紹?
flume之所以這么神奇,是源于它自身的一個設計,這個設計就是agent,agent本身是一個java進程,運行在日志收集節點—所謂日志收集節點就是服務器節點。?
agent里面包含3個核心的組件:source—->channel—–>sink,類似生產者、倉庫、消費者的架構。?
source:source組件是專門用來收集數據的,可以處理各種類型、各種格式的日志數據,包括avro、thrift、exec、jms、spooling directory、netcat、sequence generator、syslog、http、legacy、自定義。?
channel:source組件把數據收集來以后,臨時存放在channel中,即channel組件在agent中是專門用來存放臨時數據的——對采集到的數據進行簡單的緩存,可以存放在memory、jdbc、file等等。?
sink:sink組件是用于把數據發送到目的地的組件,目的地包括hdfs、logger、avro、thrift、ipc、file、null、hbase、solr、自定義。?
4、flume的運行機制?
flume的核心就是一個agent,這個agent對外有兩個進行交互的地方,一個是接受數據的輸入——source,一個是數據的輸出sink,sink負責將數據發送到外部指定的目的地。source接收到數據之后,將數據發送給channel,chanel作為一個數據緩沖區會臨時存放這些數據,隨后sink會將channel中的數據發送到指定的地方—-例如HDFS等,注意:只有在sink將channel中的數據成功發送出去之后,channel才會將臨時數據進行刪除,這種機制保證了數據傳輸的可靠性與安全性。?
5、flume的廣義用法?
flume之所以這么神奇—-其原因也在于flume可以支持多級flume的agent,即flume可以前后相繼,例如sink可以將數據寫到下一個agent的source中,這樣的話就可以連成串了,可以整體處理了。flume還支持扇入(fan-in)、扇出(fan-out)。所謂扇入就是source可以接受多個輸入,所謂扇出就是sink可以將數據輸出多個目的地destination中。?
?
(二)flume應用—日志采集?
對于flume的原理其實很容易理解,我們更應該掌握flume的具體使用方法,flume提供了大量內置的Source、Channel和Sink類型。而且不同類型的Source、Channel和Sink可以自由組合—–組合方式基于用戶設置的配置文件,非常靈活。比如:Channel可以把事件暫存在內存里,也可以持久化到本地硬盤上。Sink可以把日志寫入HDFS, HBase,甚至是另外一個Source等等。下面我將用具體的案例詳述flume的具體用法。?
其實flume的用法很簡單—-書寫一個配置文件,在配置文件當中描述source、channel與sink的具體實現,而后運行一個agent實例,在運行agent實例的過程中會讀取配置文件的內容,這樣flume就會采集到數據。?
配置文件的編寫原則:?
1>從整體上描述代理agent中sources、sinks、channels所涉及到的組件

# Name the components on this agenta1.sources = r1a1.sinks = k1a1.channels = c1
  • 1
  • 2
  • 3
  • 4

2>詳細描述agent中每一個source、sink與channel的具體實現:即在描述source的時候,需要?
指定source到底是什么類型的,即這個source是接受文件的、還是接受http的、還是接受thrift?
的;對于sink也是同理,需要指定結果是輸出到HDFS中,還是Hbase中啊等等;對于channel?
需要指定是內存啊,還是數據庫啊,還是文件啊等等。

# Describe/configure the sourcea1.sources.r1.type = netcata1.sources.r1.bind = localhosta1.sources.r1.port = 44444# Describe the sinka1.sinks.k1.type = logger# Use a channel which buffers events in memorya1.channels.c1.type = memorya1.channels.c1.capacity = 1000a1.channels.c1.transactionCapacity = 100
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12

3>通過channel將source與sink連接起來

# Bind the source and sink to the channela1.sources.r1.channels = c1a1.sinks.k1.channel = c1
  • 1
  • 2
  • 3

啟動agent的shell操作:

flume-ng agent -n a1 -c ../conf -f ../conf/example.file -Dflume.root.logger=DEBUG,console
  • 1
  • 2

參數說明: -n 指定agent名稱(與配置文件中代理的名字相同)?
-c 指定flume中配置文件的目錄?
-f 指定配置文件?
-Dflume.root.logger=DEBUG,console 設置日志等級

具體案例:?
案例1: NetCat Source:監聽一個指定的網絡端口,即只要應用程序向這個端口里面寫數據,這個source組件就可以獲取到信息。 其中 Sink:logger Channel:memory?
flume官網中NetCat Source描述:

Property Name Default Description channels – type – The component type name, needs to be netcat bind – 日志需要發送到的主機名或者Ip地址,該主機運行著netcat類型的source在監聽 port – 日志需要發送到的端口號,該端口號要有netcat類型的source在監聽
  • 1
  • 2
  • 3
  • 4
  • 5

a) 編寫配置文件:

# Name the components on this agent a1.sources = r1 a1.sinks = k1 a1.channels = c1# Describe/configure the source a1.sources.r1.type = netcat a1.sources.r1.bind = 192.168.80.80 a1.sources.r1.port = 44444# Describe the sink a1.sinks.k1.type = logger# Use a channel which buffers events in memory a1.channels.c1.type = memory a1.channels.c1.capacity = 1000 a1.channels.c1.transactionCapacity = 100# Bind the source and sink to the channel a1.sources.r1.channels = c1 a1.sinks.k1.channel = c1
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21

b) 啟動flume agent a1 服務端

flume-ng agent -n a1 -c ../conf -f ../conf/netcat.conf -Dflume.root.logger=DEBUG,console
  • 1

c) 使用telnet發送數據

telnet 192.168.80.80 44444 big data world!(windows中運行的)
  • 1

d) 在控制臺上查看flume收集到的日志數據:?

案例2:NetCat Source:監聽一個指定的網絡端口,即只要應用程序向這個端口里面寫數據,這個source組件就可以獲取到信息。 其中 Sink:hdfs Channel:file (相比于案例1的兩個變化)?
flume官網中HDFS Sink的描述:?

a) 編寫配置文件:

# Name the components on this agent a1.sources = r1 a1.sinks = k1 a1.channels = c1# Describe/configure the source a1.sources.r1.type = netcat a1.sources.r1.bind = 192.168.80.80 a1.sources.r1.port = 44444# Describe the sink a1.sinks.k1.type = hdfs a1.sinks.k1.hdfs.path = hdfs://hadoop80:9000/dataoutput a1.sinks.k1.hdfs.writeFormat = Text a1.sinks.k1.hdfs.fileType = DataStream a1.sinks.k1.hdfs.rollInterval = 10 a1.sinks.k1.hdfs.rollSize = 0 a1.sinks.k1.hdfs.rollCount = 0 a1.sinks.k1.hdfs.filePrefix = %Y-%m-%d-%H-%M-%S a1.sinks.k1.hdfs.useLocalTimeStamp = true# Use a channel which buffers events in file a1.channels.c1.type = file a1.channels.c1.checkpointDir = /usr/flume/checkpoint a1.channels.c1.dataDirs = /usr/flume/data# Bind the source and sink to the channel a1.sources.r1.channels = c1 a1.sinks.k1.channel = c1
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29

b) 啟動flume agent a1 服務端

flume-ng agent -n a1 -c ../conf -f ../conf/netcat.conf -Dflume.root.logger=DEBUG,console
  • 1

c) 使用telnet發送數據

telnet 192.168.80.80 44444 big data world!(windows中運行的)
  • 1

d) 在HDFS中查看flume收集到的日志數據:?
?
案例3:Spooling Directory Source:監聽一個指定的目錄,即只要應用程序向這個指定的目錄中添加新的文件,source組件就可以獲取到該信息,并解析該文件的內容,然后寫入到channle。寫入完成后,標記該文件已完成或者刪除該文件。其中 Sink:logger Channel:memory?
flume官網中Spooling Directory Source描述:

Property Name Default Description channels – type – The component type name, needs to be spooldir. spoolDir – Spooling Directory Source監聽的目錄 fileSuffix .COMPLETED 文件內容寫入到channel之后,標記該文件 deletePolicy never 文件內容寫入到channel之后的刪除策略: never or immediate fileHeader false Whether to add a header storing the absolute path filename. ignorePattern ^$ Regular expression specifying which files to ignore (skip) interceptors – 指定傳輸中event的head(頭信息),常用timestamp
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9

Spooling Directory Source的兩個注意事項:

①If a file is written to after being placed into the spooling directory, Flume will print an error to its log file and stop processing. 即:拷貝到spool目錄下的文件不可以再打開編輯 ②If a file name is reused at a later time, Flume will print an error to its log file and stop processing. 即:不能將具有相同文件名字的文件拷貝到這個目錄下
  • 1
  • 2
  • 3
  • 4

a) 編寫配置文件:

# Name the components on this agent a1.sources = r1 a1.sinks = k1 a1.channels = c1# Describe/configure the source a1.sources.r1.type = spooldir a1.sources.r1.spoolDir = /usr/local/datainput a1.sources.r1.fileHeader = true a1.sources.r1.interceptors = i1 a1.sources.r1.interceptors.i1.type = timestamp# Describe the sink a1.sinks.k1.type = logger# Use a channel which buffers events in memory a1.channels.c1.type = memory a1.channels.c1.capacity = 1000 a1.channels.c1.transactionCapacity = 100# Bind the source and sink to the channel a1.sources.r1.channels = c1 a1.sinks.k1.channel = c1
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23

b) 啟動flume agent a1 服務端

flume-ng agent -n a1 -c ../conf -f ../conf/spool.conf -Dflume.root.logger=DEBUG,console
  • 1

c) 使用cp命令向Spooling Directory 中發送數據

cp datafile /usr/local/datainput (注:datafile中的內容為:big data world!)
  • 1

d) 在控制臺上查看flume收集到的日志數據:?

從控制臺顯示的結果可以看出event的頭信息中包含了時間戳信息。?
同時我們查看一下Spooling Directory中的datafile信息—-文件內容寫入到channel之后,該文件被標記了:

[root@hadoop80 datainput]# ls datafile.COMPLETED
  • 1
  • 2

案例4:Spooling Directory Source:監聽一個指定的目錄,即只要應用程序向這個指定的目錄中添加新的文件,source組件就可以獲取到該信息,并解析該文件的內容,然后寫入到channle。寫入完成后,標記該文件已完成或者刪除該文件。 其中 Sink:hdfs Channel:file (相比于案例3的兩個變化)

a) 編寫配置文件:

# Name the components on this agent a1.sources = r1 a1.sinks = k1 a1.channels = c1# Describe/configure the source a1.sources.r1.type = spooldir a1.sources.r1.spoolDir = /usr/local/datainput a1.sources.r1.fileHeader = true a1.sources.r1.interceptors = i1 a1.sources.r1.interceptors.i1.type = timestamp# Describe the sink # Describe the sink a1.sinks.k1.type = hdfs a1.sinks.k1.hdfs.path = hdfs://hadoop80:9000/dataoutput a1.sinks.k1.hdfs.writeFormat = Text a1.sinks.k1.hdfs.fileType = DataStream a1.sinks.k1.hdfs.rollInterval = 10 a1.sinks.k1.hdfs.rollSize = 0 a1.sinks.k1.hdfs.rollCount = 0 a1.sinks.k1.hdfs.filePrefix = %Y-%m-%d-%H-%M-%S a1.sinks.k1.hdfs.useLocalTimeStamp = true# Use a channel which buffers events in file a1.channels.c1.type = file a1.channels.c1.checkpointDir = /usr/flume/checkpoint a1.channels.c1.dataDirs = /usr/flume/data# Bind the source and sink to the channel a1.sources.r1.channels = c1 a1.sinks.k1.channel = c1
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32

b) 啟動flume agent a1 服務端

flume-ng agent -n a1 -c ../conf -f ../conf/spool.conf -Dflume.root.logger=DEBUG,console
  • 1

c) 使用cp命令向Spooling Directory 中發送數據

cp datafile /usr/local/datainput (注:datafile中的內容為:big data world!)
  • 1

d) 在控制臺上可以參看sink的運行進度日志:?

d) 在HDFS中查看flume收集到的日志數據:?

?
從案例1與案例2、案例3與案例4的對比中我們可以發現:flume的配置文件在編寫的過程中是非常靈活的。

案例5:Exec Source:監聽一個指定的命令,獲取一條命令的結果作為它的數據源?
常用的是tail -F file指令,即只要應用程序向日志(文件)里面寫數據,source組件就可以獲取到日志(文件)中最新的內容 。 其中 Sink:hdfs Channel:file?
這個案列為了方便顯示Exec Source的運行效果,結合Hive中的external table進行來說明。

a) 編寫配置文件:

# Name the components on this agent a1.sources = r1 a1.sinks = k1 a1.channels = c1# Describe/configure the source a1.sources.r1.type = exec a1.sources.r1.command = tail -F /usr/local/log.file# Describe the sink a1.sinks.k1.type = hdfs a1.sinks.k1.hdfs.path = hdfs://hadoop80:9000/dataoutput a1.sinks.k1.hdfs.writeFormat = Text a1.sinks.k1.hdfs.fileType = DataStream a1.sinks.k1.hdfs.rollInterval = 10 a1.sinks.k1.hdfs.rollSize = 0 a1.sinks.k1.hdfs.rollCount = 0 a1.sinks.k1.hdfs.filePrefix = %Y-%m-%d-%H-%M-%S a1.sinks.k1.hdfs.useLocalTimeStamp = true# Use a channel which buffers events in file a1.channels.c1.type = file a1.channels.c1.checkpointDir = /usr/flume/checkpoint a1.channels.c1.dataDirs = /usr/flume/data# Bind the source and sink to the channel a1.sources.r1.channels = c1 a1.sinks.k1.channel = c1
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28

b)在hive中建立外部表—–hdfs://hadoop80:9000/dataoutput的目錄,方便查看日志捕獲內容

hive> create external table t1(infor string)> row format delimited> fields terminated by '\t'> location '/dataoutput/'; OK Time taken: 0.284 seconds
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6

c) 啟動flume agent a1 服務端

flume-ng agent -n a1 -c ../conf -f ../conf/exec.conf -Dflume.root.logger=DEBUG,console
  • 1

d) 使用echo命令向/usr/local/datainput 中發送數據

echo big data > log.file
  • 1

d) 在HDFS和Hive分別中查看flume收集到的日志數據:?

hive> select * from t1; OK big data Time taken: 0.086 seconds
  • 1
  • 2
  • 3
  • 4

e)使用echo命令向/usr/local/datainput 中在追加一條數據

echo big data world! >> log.file
  • 1

d) 在HDFS和Hive再次分別中查看flume收集到的日志數據:?

hive> select * from t1; OK big data big data world! Time taken: 0.511 seconds
  • 1
  • 2
  • 3
  • 4
  • 5

總結Exec source:Exec source和Spooling Directory Source是兩種常用的日志采集的方式,其中Exec source可以實現對日志的實時采集,Spooling Directory Source在對日志的實時采集上稍有欠缺,盡管Exec source可以實現對日志的實時采集,但是當Flume不運行或者指令執行出錯時,Exec source將無法收集到日志數據,日志會出現丟失,從而無法保證收集日志的完整性。

案例6:Avro Source:監聽一個指定的Avro 端口,通過Avro 端口可以獲取到Avro client發送過來的文件 。即只要應用程序通過Avro 端口發送文件,source組件就可以獲取到該文件中的內容。 其中 Sink:hdfs Channel:file?
(注:Avro和Thrift都是一些序列化的網絡端口–通過這些網絡端口可以接受或者發送信息,Avro可以發送一個給定的文件給Flume,Avro 源使用AVRO RPC機制)?
Avro Source運行原理如下圖:?
?
flume官網中Avro Source的描述:

Property Name Default Description channels – type – The component type name, needs to be avro bind – 日志需要發送到的主機名或者ip,該主機運行著ARVO類型的source port – 日志需要發送到的端口號,該端口要有ARVO類型的source在監聽
  • 1
  • 2
  • 3
  • 4
  • 5

1)編寫配置文件

# Name the components on this agent a1.sources = r1 a1.sinks = k1 a1.channels = c1# Describe/configure the source a1.sources.r1.type = avro a1.sources.r1.bind = 192.168.80.80 a1.sources.r1.port = 4141# Describe the sink a1.sinks.k1.type = hdfs a1.sinks.k1.hdfs.path = hdfs://hadoop80:9000/dataoutput a1.sinks.k1.hdfs.writeFormat = Text a1.sinks.k1.hdfs.fileType = DataStream a1.sinks.k1.hdfs.rollInterval = 10 a1.sinks.k1.hdfs.rollSize = 0 a1.sinks.k1.hdfs.rollCount = 0 a1.sinks.k1.hdfs.filePrefix = %Y-%m-%d-%H-%M-%S a1.sinks.k1.hdfs.useLocalTimeStamp = true# Use a channel which buffers events in file a1.channels.c1.type = file a1.channels.c1.checkpointDir = /usr/flume/checkpoint a1.channels.c1.dataDirs = /usr/flume/data# Bind the source and sink to the channel a1.sources.r1.channels = c1 a1.sinks.k1.channel = c1
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29

b) 啟動flume agent a1 服務端

flume-ng agent -n a1 -c ../conf -f ../conf/avro.conf -Dflume.root.logger=DEBUG,console
  • 1

c)使用avro-client發送文件

flume-ng avro-client -c ../conf -H 192.168.80.80 -p 4141 -F /usr/local/log.file
  • 1

注:log.file文件中的內容為:

[root@hadoop80 local]# more log.file big data big data world!
  • 1
  • 2
  • 3

d) 在HDFS中查看flume收集到的日志數據:?

?

通過上面的幾個案例,我們可以發現:flume配置文件的書寫是相當靈活的—-不同類型的Source、Channel和Sink可以自由組合!

最后對上面用的幾個flume source進行適當總結:?
① NetCat Source:監聽一個指定的網絡端口,即只要應用程序向這個端口里面寫數據,這個source組件?
就可以獲取到信息。?
②Spooling Directory Source:監聽一個指定的目錄,即只要應用程序向這個指定的目錄中添加新的文?
件,source組件就可以獲取到該信息,并解析該文件的內容,然后寫入到channle。寫入完成后,標記?
該文件已完成或者刪除該文件。?
③Exec Source:監聽一個指定的命令,獲取一條命令的結果作為它的數據源?
常用的是tail -F file指令,即只要應用程序向日志(文件)里面寫數據,source組件就可以獲取到日志(文件)中最新的內容 。?
④Avro Source:監聽一個指定的Avro 端口,通過Avro 端口可以獲取到Avro client發送過來的文件 。即只要應用程序通過Avro 端口發送文件,source組件就可以獲取到該文件中的內容。

如有問題,歡迎留言指正!

?

總結

以上是生活随笔為你收集整理的探秘Hadoop生态12:分布式日志收集系统Flume的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。

主站蜘蛛池模板: 国产一级片中文字幕 | 成人免费看类便视频 | 成人免费看片在线观看 | 吃奶av | 日本少妇bb | 国产一区二区三区在线观看视频 | 亚洲精品lv| 午夜小福利 | 禁久久精品乱码 | 色干干| 亚洲欧美校园春色 | 国产精品一二三四五区 | 男人午夜网站 | 森泽佳奈中文字幕 | 97精品人妻一区二区 | 哈利波特3在线观看免费版英文版 | 色欲久久久天天天综合网 | 波多野结衣一区二区在线 | 国产又色又爽 | 欧美日韩网址 | 欧美亚洲一区 | 日韩三级国产精品 | 久久久久久久久久一级 | 亚洲va在线 | 三级国产在线 | 欧美三级免费看 | 激情小说在线 | 亚洲熟妇毛茸茸 | 影音先锋蜜桃 | 国产免费自拍 | 成人午夜又粗又硬又大 | 色婷婷香蕉在线一区二区 | 亚洲久久天堂 | 91天堂在线观看 | 大尺度做爰呻吟舌吻情头 | 久久久91精品国产一区二区三区 | av在线中文 | 色爱av| 欧美成人三级在线观看 | 69久久夜色精品国产69 | 免费av一区二区三区 | 欧美日韩一区二区三区 | 性工作者十日谈 | 曰批视频在线观看 | 美女隐私直播 | 亚洲乱码精品 | 很黄的网站在线观看 | 337p嫩模大胆色肉噜噜噜 | 男女高潮网站 | 国产精品久久影院 | 国产盗摄视频在线观看 | 国产福利久久久 | 欧美亚洲自拍偷拍 | 日韩一区在线播放 | 操人视频网站 | 樱桃视频污污 | 噜噜色av| 99国产精品国产免费观看 | 国产成人啪免费观看软件 | 久久精品成人一区二区三区蜜臀 | tube极品少妇videos | 在线国产精品视频 | 欧洲av无码放荡人妇网站 | 亚洲高清视频在线 | 青娱乐99 | 精品国产欧美 | 极品探花在线播放 | 丁香花高清视频完整电影 | 亚洲欧美激情精品一区二区 | 久久中字| 日本黄色一区二区三区 | 欧美高清在线一区 | 日本成人久久 | 亚洲欧洲日韩综合 | 欧美性猛交ⅹxx乱大交 | 亚洲第一黄 | 色偷偷影院| 欧美中字 | av在线免费网址 | 久久精品视频91 | 日韩资源在线 | 性激烈视频在线观看 | 午夜久久影院 | 91麻豆精品在线观看 | 波多野结衣一区二区三区四区 | 中文字幕乱码人妻无码久久 | 天天射美女| 国产精品久久久久久久久免费看 | 极品少妇xxxx精品少妇偷拍 | 国产在线一卡二卡 | 国产一区二区小说 | 91精品人妻一区二区三区蜜桃2 | www国产精品 | 2021国产在线视频 | 午夜性生活片 | 大香焦久久 | 欧美91精品久久久久国产性生爱 | 国产东北女人做受av | 精品久久一区二区 |