日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 运维知识 > windows >内容正文

windows

文件系统位于服务器,如何访问hadoop文件系统上的文件,该文件系统位于与本地计算机不同的服务器上?...

發布時間:2025/3/15 windows 35 豆豆
生活随笔 收集整理的這篇文章主要介紹了 文件系统位于服务器,如何访问hadoop文件系统上的文件,该文件系统位于与本地计算机不同的服务器上?... 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

我有一臺本地計算機(local_user@local_machine)。hadoop文件系統位于不同的服務器(some_user@another_server)上。hadoop服務器中的一個用戶名為target_user。如何從local_user@local_machine訪問target_user中的文件?更準確地說,假設在some_user@another_server上的HDFS中存在一個文件/user/target_user/test.txt。從local_user@local_machine訪問/user/target_user/test.txt時,我應該使用什么正確的文件路徑?在

{hdi}本身可以訪問文件。但是我無法使用我編寫的從HDFS讀寫的python腳本從本地機器訪問文件(需要3個參數-本地文件路徑、遠程文件路徑和讀或寫),很可能是因為我沒有給出正確的路徑。在

我試過以下方法,但都不管用:

$ #local_user@local_machine

$ python3 rw_hdfs.py ./to_local_test.txt /user/target_user/test.txt read

$ python3 rw_hdfs.py ./to_local_test.txt some_user@another_server/user/target_user/test.txt read

所有這些都給出了完全相同的錯誤:Traceback (most recent call last):

File "/usr/lib/python3/dist-packages/urllib3/connectionpool.py", line 377, in _make_request

httplib_response = conn.getresponse(buffering=True)

TypeError: getresponse() got an unexpected keyword argument 'buffering'

During handling of the above exception, another exception occurred:

Traceback (most recent call last):

File "/usr/lib/python3/dist-packages/urllib3/connectionpool.py", line 560, in urlopen

body=body, headers=headers)

File "/usr/lib/python3/dist-packages/urllib3/connectionpool.py", line 379, in _make_request

httplib_response = conn.getresponse()

File "/usr/lib/python3.5/http/client.py", line 1197, in getresponse

response.begin()

File "/usr/lib/python3.5/http/client.py", line 297, in begin

version, status, reason = self._read_status()

File "/usr/lib/python3.5/http/client.py", line 279, in _read_status

raise BadStatusLine(line)

http.client.BadStatusLine:

During handling of the above exception, another exception occurred:

Traceback (most recent call last):

File "/usr/lib/python3/dist-packages/requests/adapters.py", line 376, in send

timeout=timeout

File "/usr/lib/python3/dist-packages/urllib3/connectionpool.py", line 610, in urlopen

_stacktrace=sys.exc_info()[2])

File "/usr/lib/python3/dist-packages/urllib3/util/retry.py", line 247, in increment

raise six.reraise(type(error), error, _stacktrace)

File "/usr/lib/python3/dist-packages/six.py", line 685, in reraise

raise value.with_traceback(tb)

File "/usr/lib/python3/dist-packages/urllib3/connectionpool.py", line 560, in urlopen

body=body, headers=headers)

File "/usr/lib/python3/dist-packages/urllib3/connectionpool.py", line 379, in _make_request

httplib_response = conn.getresponse()

File "/usr/lib/python3.5/http/client.py", line 1197, in getresponse

response.begin()

File "/usr/lib/python3.5/http/client.py", line 297, in begin

version, status, reason = self._read_status()

File "/usr/lib/python3.5/http/client.py", line 279, in _read_status

raise BadStatusLine(line)

requests.packages.urllib3.exceptions.ProtocolError: ('Connection aborted.', BadStatusLine('\x15\x03\x03\x00\x02\x02\n',))

During handling of the above exception, another exception occurred:

Traceback (most recent call last):

File "python_hdfs.py", line 63, in

status, name, nnaddress= check_node_status(node)

File "python_hdfs.py", line 18, in check_node_status

request = requests.get("%s/jmx?qry=Hadoop:service=NameNode,name=NameNodeStatus"%name,verify=False).json()

File "/usr/lib/python3/dist-packages/requests/api.py", line 67, in get

return request('get', url, params=params, **kwargs)

File "/usr/lib/python3/dist-packages/requests/api.py", line 53, in request

return session.request(method=method, url=url, **kwargs)

File "/usr/lib/python3/dist-packages/requests/sessions.py", line 468, in request

resp = self.send(prep, **send_kwargs)

File "/usr/lib/python3/dist-packages/requests/sessions.py", line 576, in send

r = adapter.send(request, **kwargs)

File "/usr/lib/python3/dist-packages/requests/adapters.py", line 426, in send

raise ConnectionError(err, request=request)

requests.exceptions.ConnectionError: ('Connection aborted.', BadStatusLine('\x15\x03\x03\x00\x02\x02\n',))

總結

以上是生活随笔為你收集整理的文件系统位于服务器,如何访问hadoop文件系统上的文件,该文件系统位于与本地计算机不同的服务器上?...的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。

主站蜘蛛池模板: 亚洲一区二区人妻 | 国产精品一线 | 久久国产精品久久久久 | 激情欧美在线 | 香蕉网站在线 | 久热精品视频在线观看 | 亚洲一区二区三区在线免费观看 | 欧美日韩中文字幕一区二区三区 | 成人动漫av | 亚洲欧美日韩综合在线 | a在线观看免费 | 国产一区二区黄 | 国产精品入口夜色视频大尺度 | 三级网站在线 | 3d动漫精品啪啪一区二区三区免费 | 黄色片久久久 | 午夜精品久久久久久毛片 | 91尤物视频在线观看 | 精品国产va久久久久久久 | 最新永久地址 | 69久人妻无码精品一区 | 成人亚洲天堂 | 法国空姐电影在线观看 | 日本欧美激情 | 午夜性生活视频 | 国产成a人亚洲精品 | 麻豆tv在线观看 | 狠狠躁日日躁夜夜躁 | 亚洲射图 | 日韩人妻无码精品综合区 | 国产精品呻吟久久 | 日本japanese丰满白浆 | 黑料视频在线 | 亚洲精品成人 | 日韩在线视频不卡 | 女人喂男人奶水做爰视频 | 国内自拍在线观看 | 国产suv精品一区二区883 | 91麻豆精品视频 | 日韩亚洲精品视频 | 免费国产一区二区 | 精品女同一区 | 久久影音先锋 | 成人国产视频在线观看 | 国产精品毛片一区 | 欧美日韩成人一区二区在线观看 | 日韩美女在线视频 | 国产精品三级在线观看 | 欧美性猛交xx | 日日碰狠狠添天天爽无码av | 91视频在线网站 | 日本美女一级片 | aaaaav| 亚洲免费黄色网 | 完全免费av | 美国黄色一级大片 | 污的网站 | 欧美成在线观看 | 欧美精品一区二区三 | 韩国激情呻吟揉捏胸视频 | fee性满足he牲bbw | 日日骚av| 黄色网址链接 | 久久亚洲精品中文字幕 | 中日韩av在线 | 国产精品区一区二区三 | 厨房性猛交hd | 久久奇米 | 日本泡妞xxxx免费视频软件 | 神马午夜51 | 日韩中文字幕不卡 | 国产专区一区二区三区 | 日本天堂网在线观看 | 日本69av| 老子影院午夜伦不卡大全 | 一起射导航 | 成人午夜sm精品久久久久久久 | 五月婷婷中文 | julia一区| 四虎在线网址 | 91精品国产综合久久精品 | 总裁边开会边做小娇妻h | 青青草视频偷拍 | 成人小视频免费观看 | 精品视频一区二区三区 | 黄色一级片在线播放 | 欧美精品一区二区不卡 | 男男av网站 | 日韩一级黄色片 | 性生交大片免费看视频 | 国产日韩欧美中文字幕 | 亚洲日本中文字幕 | 免费观看污视频 | 精品国产午夜福利 | 亚洲精品视频在线看 | 牛夜精品久久久久久久99黑人 | 美女扒开大腿让男人桶 | 国产欧美一区二区三区在线看蜜臀 | avwww|