获取给定网页上的所有链接怎样获取网页上所有下载链接
生活随笔
收集整理的這篇文章主要介紹了
获取给定网页上的所有链接怎样获取网页上所有下载链接
小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
感覺這個試過以后,那些個嚴禁復制網頁內容的就不再是個煩惱了。每個網頁右鍵會出現一個查看網頁源代碼的選項,看看都有些什么,這對于理解下面的代碼是有用處的。
注意看類似這些行Community。代碼里的find字符"a"和get的"href"方法主要作用就在這里。
網頁源代碼
直接上代碼吧:
import requests as rq
from bs4 import BeautifulSoup
url = input("Enter Link: ")
if ("https" or "http") in url:
data = rq.get(url)
else:
data = rq.get("https://" + url)
soup = BeautifulSoup(data.text, "html.parser")
saved = open("myLinks.txt", 'w')
for link in soup.find_all("a"):
print(link.get("href"))
saved.writelines(link.get("href"))
saved.writelines("\n")
運行示意和輸出的文件
總結
以上是生活随笔為你收集整理的获取给定网页上的所有链接怎样获取网页上所有下载链接的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 河南信息工程学校计算机组装比赛,计算机技
- 下一篇: 日元大跌!亚马逊海外购超值文具测评与推荐