其他分享
首页 > 其他分享> > 每日日报2021.5.20

每日日报2021.5.20

作者:互联网

今天完成内容:

学习web

 cvpr论文查询 热词分析

1。论文爬取 成功

from bs4 import BeautifulSoup
import requests
import re
import pymysql
conn=pymysql.connect(host="localhost",
                     user='root',
                     password='123456',
                     port=3306,
                     db='e_manager',
                     )
# 建立游标
cursor=conn.cursor()
sql="select * from students"
result_DB=cursor.execute(sql)
print(result_DB)
if(result_DB):
    print("连接成功")

url="https://blog.csdn.net/u014636245/article/details/91426736"
# 设置headers
headers={

    "User-Agent":"Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:89.0) Gecko/20100101 Firefox/89.0"
}
res=requests.get(url,headers=headers)
# 页面源码
page_content=res.text
obj=re.compile(r'<td>.*?<a href="(?P<link>.*?)">(?P<name>.*?)</a>',re.S)
# 开始匹配
result=obj.finditer(page_content)
i=1

for it in result:

    print(it.group("link"))
    # 论文链接
    link=it.group("link")
    print(it.group("name"))
    #论文名字
    name=it.group("name")
    # 论文编号
    id=i

    i=i+1
    sql_insert=("INSERT INTO words(id,name,link)" "VALUES(%s,%s,%s)")
    # 建立元组
    data=(id,name,link)
    cursor.execute(sql_insert,data)
    conn.commit()
    print("完成第")
    print(id)
    print("条数据插入")
# res.encoding="utf-8"
# html=res.text
# soup=BeautifulSoup(html)
# soup.find("h2").text
# soup.find("a")

 

 

看视频

遇到问题:

明日目标:

学习web端的开发

学习css

标签:2021.5,name,日报,group,cursor,link,result,print,20
来源: https://www.cnblogs.com/leiyu1905/p/14913194.html