当前位置: 首页 > news >正文

网站建设主流语言可以做盗版漫画网站吗

网站建设主流语言,可以做盗版漫画网站吗,嵩县网站开发,事业单位网站建设1. 背景 最近在工作中有需要使用到爬虫的地方#xff0c;需要根据 Gitlab Python 实现一套定时爬取数据的工具#xff0c;所以借此机会#xff0c;针对 Python 爬虫方面的知识进行了学习#xff0c;也算 Python 爬虫入门了。 需要了解的知识点#xff1a; Python 基础语…1. 背景 最近在工作中有需要使用到爬虫的地方需要根据 Gitlab Python 实现一套定时爬取数据的工具所以借此机会针对 Python 爬虫方面的知识进行了学习也算 Python 爬虫入门了。 需要了解的知识点 Python 基础语法Python 网络请求requests 模块的基本使用BeautifulSoup 库的使用正则表达式Selenium 的基本使用 下面针对上面的每部分做个简单的介绍。 2. Python 基础语法 学习任何一门编程语言都必须掌握其语法知识Python 也不例外。如果有其它变成语言基础上手 Python 还是非常快的。 2.1 变量 在 Python 中定义一个变量的操作分为两步首先要为变量起一个名字称为变量的命名然后要为变量指定其所代表的数据称为变量的赋值。这两个步骤在同一行代码中完成。 version 1 Python 中的变量命名规范与其它开发语言差不多基本的规则如下 变量名可以由任意数量的字母、数字、下划线组合而成但是必须以字母或下划线开头不能以数字开头。不要用 Python 的保留字或内置函数来命名变量。例如不要用 import 来命名变量因为它是 Python 的保留字有特殊的含义。变量名对英文字母区分大小写。例如D 和 d 是两个不同的变量。 2.2 数据类型 Python 中有 6 种基本数据类型数字Numbers、字符串String、列表List、字典Dictionary、元组Tuple和集合。 2.2.1 数据类型 在 Python 中定义变量后需要及时指明对应的数据类型。同时也可以使用 del 变量名 删除对象引用。 num 0 pi 3.14 name abc # 定义列表 []列表元素可以修改 list [12, 2, 212, 44, 5, 6] dic {k1: v1,k2: v2, } # 集合类型用 set 标识, 创建使用 { } 或者 set() s1 {1, 2, 3, 3, 2, 2, 2, 1, 1} # 元组用 () 表示元组的元素不能修改 tuple ( runoob, 786 , 2.23, john, 70.2 )del s1 对于每种数据类型都有一些常用的方法 数据类型方法字符串- [ : ]截取字符串中的一部分切片遵循左闭右开原则- []通过索引获取字符串中字符- in如果字符串中包含给定的字符返回 True- not in成员运算符 - 如果字符串中不包含给定的字符返回 True- capitalize()将字符串的第一个字符转换为大写- endswith(suffix, beg0, endlen(string))检查字符串是否以指定的字符串结束如果是返回 True否则返回 False- find(str, beg0, endlen(string))检测 str 是否包含在字符串中如果包含返回开始的索引值否则返回-1- index(str, beg0, endlen(string))跟find()方法一样只不过如果str不在字符串中会报一个异常- len(string)返回字符串长度- replace(old, new [, max])把将字符串中的 old 替换成 new,如果 max 指定则替换不超过 max 次- rstrip()删除字符串末尾的空格或指定字符- split(str“”, numstring.count(str))以 str 为分隔符截取字符串如果 num 有指定值则仅截取 num1 个子字符串。列表/元组- len(list)列表元素个数- list(seq)将序列元组集合等转换为列表- list.append(obj)在列表末尾添加新的对象- list.index(obj)从列表中找出某个值第一个匹配项的索引位置- list.remove(obj)移除列表中某个值的第一个匹配项- list.clear()清空列表。字典- len(dict)计算字典元素个数即键的总数- key in dict如果键在字典dict里返回true否则返回false- radiansdict.items()以列表返回可遍历的(键, 值) 元组数组- radiansdict.keys()以列表返回一个字典所有的键- radiansdict.values()以列表返回字典中的所有值。 2.2.2 类型转换 字符串类型转换通过 str() 函数可以将一个变量转换为字符串类型。 int(x) 将x转换为一个整数。float(x) 将x转换到一个浮点数。complex(x) 将x转换到一个复数实数部分为 x虚数部分为 0。complex(x, y) 将 x 和 y 转换到一个复数实数部分为 x虚数部分为 y。x 和 y 是数字表达式。str(x) 将对象 x 转换为字符串。 2.3 基础运算符 在 Python 中运算符基本与其它开发语言一致常用的运算符有算术运算符、字符串运算符、比较运算符、赋值运算符和逻辑运算符。 算术运算符 比较运算符 逻辑运算符 2.4 控制语句 Python 的控制语句分为条件语句和循环语句前者为 if 语句后者为 for 语句和 while 语句。 2.4.1 if 语句 if 语句主要用于条件判断满足特定条件执行语句。 if 条件: # 注意不要遗漏冒号代码1 # 注意代码前要有缩进 else: # 注意不要遗漏冒号代码2 # 注意代码前要有缩进 一个简单的示例 grade 60 if grade 60:print(及格) else:print(不及格) 2.4.2 for 循环 for 语句常用于完成指定次数的重复操作 for i in 序列: # 注意不要遗漏冒号要重复执行的代码 # 注意代码前要有缩进 简单示例 numbers [12, 2, 212, 44, 5, 6] for item in numbers:print(item) 2.4.3 while 语句 while 语句用于在指定条件成立时重复执行操作。 while 条件: # 注意不要遗漏冒号要重复执行的代码 # 注意代码前要有缩进 简单示例 a 60 while a 70:print(a)a a 1 2.5 函数 Python 提供了诸多的内置函数比如 str()、int() 等但是在开发时也需要经常用到自定义函数。 在 Python 中使用 def 关键字定义一个函数。 def 函数名(参数):实现函数功能的代码 如果需要返回值则需要使用 return 进行返回。 def data_transform():# 具体的实现逻辑return True 2.6 模块导入 要使用模块就需要安装和导入模块。模块的两种导入方法import 语句导入法和 from语句导入法。 import 语法会导入模块内所有方法一般如果用包的方法较多可以选择from 模块名 import 函数名导入某块中某个函数 import math # 导入math模块 import turtle # 导入turtle模块from math import sqrt # 导入math模块中的单个函数 from turtle import forward, backward, right, left # 导入turtle模块中的多个函数 模块的安装使用 pip install 指令 pip install SomeProject 3. 网络请求与数据解析 爬虫肯定需要了解基础的网络请求和基础的 HTML 知识能够认识基础的 HTML 标签。 3.1 requests 包 requests 包可以模拟浏览器发起 HTTP 或 HTTPS 协议的网络请求从而获取网页源代码。 使用也比较简单先安装模块pip3 install requests. get 请求 比如抓取百度首页的信息。 import requests response requests.get(urlhttps://www.baidu.com) print(response.text) 输出如下 **post **请求 # 测试请求地址 req_url https://juejin.org/post# 表单数据 formdata {username: admin,password: a123456, }# 添加请求头 req_header {User-Agent: Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.3396.99 Safari/537.36, } # 发起请求 response requests.post(req_url,dataformdata,headersreq_header )print(response.text) 通过 requests 模块发送网络请求非常简单容易上手。 3.2 BeautifulSoup 数据解析 BeautifulSoup 模块是一个 HTML/XML 解析器主要用于解析和提取 HTML/XML 文档中的数据。该模块不仅支持 Python 标准库中的 HTML 解析器 lxml而且支持许多功能强大的第三方解析器。 在使用前先通过 pip 指令安装模块pip install beautifulsoup4 。 3.2.1 简单使用 以请求百度首页为例。 if __name__ __main__:url https://www.baidu.comresponse requests.get(url)soup BeautifulSoup(response.text, lxml)print(soup.prettify()) 打印输出以下信息 !DOCTYPE html !--STATUS OK-- htmlheadmeta contenttext/html;charsetutf-8 http-equivcontent-type/meta contentIEEdge http-equivX-UA-Compatible/meta contentalways namereferrer/link hrefhttps://ss1.bdstatic.com/5eN1bjq8AAUYm2zgoY3K/r/www/cache/bdorz/baidu.min.css relstylesheet typetext/css/titleç™¾åº¦ä¸€ä¸‹ï¼Œä½ å°±çŸ¥é“/title/headbody link#0000ccdiv idwrapperdiv idheaddiv classhead_wrapperdiv classs_formdiv classs_form_wrapperdiv idlgimg height129 hidefocustrue src//www.baidu.com/img/bd_logo1.png width270//divform action//www.baidu.com/s classfm idform namefinput namebdorz_come typehidden value1/input nameie typehidden valueutf-8/input namef typehidden value8/input namersv_bp typehidden value1/input namersv_idx typehidden value1/input nametn typehidden valuebaidu/span classbg s_ipt_wrinput autocompleteoff autofocusautofocus classs_ipt idkw maxlength255 namewd value//spanspan classbg s_btn_wrinput autofocus classbg s_btn idsu typesubmit value百度一下//span/form/div/div.../div/div/div/body /html 通过 BeautifulSoup 库可以将请求的网址信息按照标签进行转换展示。下面学习 BeautifulSoup 提供的标签操作方法。 3.2.2 查找标签 依照上一节中的百度首页为例下面分别介绍 BeautifulSoup 中常用的方法。 查找指定标签名 在网页源码中存在很多类型的标签。通过标签名进行定位只能返回其中的第一个标签。 比如我们查找定位 标签。 if __name__ __main__:url https://www.baidu.comresponse requests.get(url)soup BeautifulSoup(response.text, lxml)print(soup.input) 输出结果 input namebdorz_come typehidden value1/ 查找指定属性的标签 标签的属性有name、class、id 等我们使用 find 或 find_all 方法查找标签对应的所有属性。 import requests from bs4 import BeautifulSoupif __name__ __main__:url https://www.baidu.comresponse requests.get(url)soup BeautifulSoup(response.text, lxml)# print(soup.prettify())# 查找 class 属性为 bg s_ipt_wr 的标签bg_tags soup.find_all(class_bg s_ipt_wr)for tag in bg_tags:print(tag) # 输出 span classbg s_ipt_wrinput autocompleteoff autofocusautofocus classs_ipt idkw maxlength255 namewd value//span# 查找 name rsv_idxidx soup.find(attrs{name: rsv_idx})print(idx) # 输出 input namersv_idx typehidden value1/ 在上面的示例中我们通过 find_all 方法查找所有 class_ bg s_ipt_wr的标签。因为 class 这个单词本身是 Python 的保留字所以 BeautifulSoup 模块中的 class 属性在末尾添加了下划线来进行区分。其他标签属性如 id 属性则没有添加下划线。 通过标签名属性查找 通过指定标签名 属性值可以实现更准确的查找。 if __name__ __main__:url https://www.baidu.comresponse requests.get(url)soup BeautifulSoup(response.text, lxml)# print(soup.prettify())# 查找 input 标签且属性 name rsv_idxidx soup.find(input, attrs{name: rsv_idx})print(idx) # 输出 input namersv_idx typehidden value1/ 3.2.3 选择标签 在上一小节中介绍了 find 方法用于查找标签使用 select() 函数可以根据指定的选择器返回所有符合条件的标签。常用的选择器有 id 选择器、class 选择器、标签选择器和层级选择器。 1. 标签选择器 根据指定的标签进行筛选。在 find 中根据指定标签名查找时只会返回第一个匹配项。使用 select 标签返回所有。 if __name__ __main__:url https://www.baidu.comresponse requests.get(url)soup BeautifulSoup(response.text, lxml)# print(soup.prettify())input_tag soup.select(input)print(input_tag)# 输出 [input namebdorz_come typehidden value1/, input nameie typehidden valueutf-8/] 在 select 中直接查找对应的标签名会输出所有的标签。 2. id 选择器 id 选择器是根据 id 值查找对应的标签。格式 ‘#id值’ if __name__ __main__:url https://www.baidu.comresponse requests.get(url)soup BeautifulSoup(response.text, lxml)# print(soup.prettify())input_tag soup.select(#kw)print(input_tag)# 输出 [input autocompleteoff autofocusautofocus classs_ipt idkw maxlength255 namewd value/] 上面的示例中查找 id 值为 kw 的标签。注意输出是列表形式。 3. class 选择器 class 选择器根据 class 属性值查找对应的标签格式为 ‘.class属性值’ if __name__ __main__:url https://www.baidu.comresponse requests.get(url)soup BeautifulSoup(response.text, lxml)# print(soup.prettify())input_tag soup.select(.s_ipt)print(input_tag)# 输出 [input autocompleteoff autofocusautofocus classs_ipt idkw maxlength255 namewd value/] 上面的示例中查找 class 值为 s_ipt 的标签。注意输出是列表形式。 4. 层级筛选器 在 HTML 中标签嵌套很常见标签在不同的层级形成嵌套结构。通过 标签标签这种指向结构来定位。 div classs_form_wrapperdiv idlgimg height129 hidefocustrue src//www.baidu.com/img/bd_logo1.png width270//divform action//www.baidu.com/s classfm idform namefinput namebdorz_come typehidden value1/input nameie typehidden valueutf-8/input namef typehidden value8/input namersv_bp typehidden value1/input namersv_idx typehidden value1/input nametn typehidden valuebaidu/span classbg s_ipt_wrinput autocompleteoff autofocusautofocus classs_ipt idkw maxlength255 namewd value//spanspan classbg s_btn_wrinput autofocus classbg s_btn idsu typesubmit value百度一下//span/form /div 使用上面的示例数据我们来验证。 if __name__ __main__:url https://www.baidu.comresponse requests.get(url)soup BeautifulSoup(response.text, lxml)# 查找所有 div 标签下 div 标签的 id 属性值为 lg 的标签div_tag soup.select(divdiv#lg)# 输出结果 [div idlg img height129 hidefocustrue src//www.baidu.com/img/bd_logo1.png width270/ /div]print(div_tag)# 查找 form 标签下所有的 input 标签input_tag soup.select(forminput)print(input_tag)# 输出结果 [input namebdorz_come typehidden value1/, input nameie typehidden valueutf-8/, input namef typehidden value8/, input namersv_bp typehidden value1/, input namersv_idx typehidden value1/, input nametn typehidden valuebaidu/]form_tag soup.select(divform span)print(form_tag) “” 在层级选择器中表示向下找一个层级中间不能有其他层级。如果中间有空格表示中间可以有多个层级。 3.2.4 提取内容和属性 找到标签后我们需要读取标签对应的内容或者属性。 提取标签内容 获取标签后我们需要查找标签中的内容可以利用 string 或 text 来提取。string 属性返回的是指定标签的直系文本即直接存在于该标签中的文本而不是存在于该标签下的其他标签中的文本。text 属性返回的则是指定标签下的所有文本。 if __name__ __main__:url https://www.baidu.comresponse requests.get(url)soup BeautifulSoup(response.text, lxml)# 查找所有 div 标签下 div 标签的 id 属性值为 lg 的标签div_tag soup.select(diva)print(div_tag[0].string)print(div_tag[0].text) 从标签中提取属性 对于找到的标签提取属性直接使用 tag[属性表]即可。 if __name__ __main__:url https://www.baidu.comresponse requests.get(url)soup BeautifulSoup(response.text, lxml)div_tag soup.select(forminput) # [input namebdorz_come typehidden value1/]print(div_tag[0][name]) # bdorz_come print(div_tag[0][type]) # hidden 至此我们基本完成了对 beautifulSoup 库的学习。 4. 正则表达式 正则表达式是一种用于匹配和操作文本的强大工具它是由一系列字符和特殊字符组成的模式用于描述要匹配的文本模式。正则表达对网页源代码的字符串进行匹配从而提取出需要的数据。 4.1 普通字符 普通字符包括没有显式指定为元字符的所有可打印和不可打印字符。这包括所有大写和小写字母、所有数字、所有标点符号和一些其他符号。 符号描述\W匹配任何非单词字符。等价于“[^A-Za-z0-9_]”。\w匹配包括下划线的任何单词字符。等价于“[A-Za-z0-9_]”。\s匹配任何空白字符包括空格、制表符、换页符等等。等价于[ \f\n\r\t\v]。\S匹配任何非空白字符。等价于[^ \f\n\r\t\v]。\d匹配一个数字字符。等价于[0-9]。\D匹配一个非数字字符。等价于[^0-9]。 示例代码 if __name__ __main__:str kdd199ok98 a123 343print(re.findall(\W, str)) # 匹配任何非单词字符[ , ]print(re.findall(\w, str)) # 匹配任何单词字符[k, d, d, 1, 9, 9, o, k, 9, 8, a, 1, 2, 3, 3, 4, 3]print(re.findall(\S, str)) # 匹配任何非空白字符[k, d, d, 1, 9, 9, o, k, 9, 8, a, 1, 2, 3, 3, 4, 3]print(re.findall(\s, str)) # 匹配空白字符[ , ]print(re.findall(\D, str)) # 匹配非数字[k, d, d, o, k, , a, ]print(re.findall(\d, str)) # 匹配数字[1, 9, 9, 9, 8, 1, 2, 3, 3, 4, 3] 4.2 元字符 元字符是正则表达式中有特殊含义的字符可以设置字符的匹配模式。 符号描述$匹配输入字符串的结尾位置。如果设置了 RegExp 对象的 Multiline 属性则 也匹配′n′或′r′。要匹配也匹配 ‘\\n’ 或 ‘\\r’。要匹配也匹配′n′或′r′。要匹配 字符本身请使用 \$。( )标记一个子表达式的开始和结束位置。子表达式可以获取供以后使用。要匹配这些字符请使用 \( 和 \)。*匹配前面的子表达式零次或多次。要匹配 * 字符请使用 \*。匹配前面的子表达式一次或多次。要匹配 字符请使用 \。.匹配除换行符 \n 之外的任何单字符。要匹配 . 请使用 \. 。[标记一个中括号表达式的开始。要匹配 [请使用 \[。?匹配前面的子表达式零次或一次或指明一个非贪婪限定符。要匹配 ? 字符请使用 \?。\将下一个字符标记为或特殊字符、或原义字符、或向后引用、或八进制转义符。例如 ‘n’ 匹配字符 ‘n’。‘\n’ 匹配换行符。序列 ‘\\’ 匹配 “\”而 ‘\(’ 则匹配 “(”。匹配输入字符串的开始位置除非在方括号表达式中使用当该符号在方括号表达式中使用时表示不接受该方括号表达式中的字符集合。要匹配 ^ 字符本身请使用 \^。{n}n 是一个非负整数。匹配确定的 n 次。{n,}n 是一个非负整数。至少匹配n 次。{n,m}m 和 n 均为非负整数其中 n m。最少匹配 n 次且最多匹配 m 次。 示例代码 if __name__ __main__:str akdd1d199ok98 d123 3438print(re.findall(8$, str)) # 匹配以 8 结尾的字符[8]print(re.findall(3$, str)) # 匹配以 3 结尾的字符[]print(re.findall(^a, str)) # 匹配以 a 开头的字符[a]print(re.findall(^d, str)) # 匹配以 d 开头的字符[]print(re.findall((d1)?, str)) # 匹配 d1 零次或一次的字符[, , d1, , , , , , , , d1, , , , , , , , ]print(re.findall((d1), str)) # 匹配 d1 一次或多次的字符[d1, d1]print(re.findall((d1)*, str)) # 匹配 d1 零次或多次的字符[, , d1, , , , , , , , d1, , , , , , , , ]print(re.findall((d1){2,}, str)) # 匹配 d1 最少 2 次的字符[d1]print(re.findall((d1){1,2}, str)) # 匹配 d1 最少 1 次最多 2 次的字符[d1, d1]print(re.findall((d.d), str)) # 匹配 (d.d) 的字符[d1d]print(re.findall((d?d), str)) # 匹配 (d?d) 的字符[dd, d, d]print(re.findall([ad], str)) # 匹配字符集合 [ad] 的字符[a, d, d, d, d]print(re.findall((ad), str)) # 匹配表达式 ad [] 正在表达式基础但是想灵活运用起来还需要多加练习太灵活可以组装很多模式。 5. Selenium 的基本使用 通过 requests 模块可以实现对一些静态网页的请求对于一些动态与浏览器需要交互的地址则不能满足。而 Selenium 模块则能控制浏览器发送请求并和获取到的网页中的元素进行交互因此只要是浏览器发送请求能得到的数据Selenium 模块也能直接得到。 5.1 环境安装 使用 Selenium 模块需要先下载和安装浏览器驱动程序然后在编程时通过 Selenium 模块实例化一个浏览器对象再通过浏览器对象访问网页和操作网页元素。 5.1.1 安装 Selenium 模块 安装比较简单直接使用 pip install selenium安装就行了。比较重要的是安装浏览器驱动程序。 2.1.2 安装浏览器驱动程序 在网址 chromedriver.storage.googleapis.com/index.html 中可以下载对应版本的浏览器驱动程序。 查看自己浏览器版本在浏览器中输入chrome://version/ 选择对应的电脑端系统比如我是 Mac 系统下载对应的即可。解压之后放到环境路径或者项目中都行只要在使用时指定对应的环境即可。 5.1.3 打开页面 这里已打开百度网站为例。我将 webdriver 放到项目路径中。 from selenium import webdriverif __name__ __main__:browser webdriver.Chrome(executable_path./chromedriver_mac64/chromedriver)browser.get(https://www.baidu.com) 5.2 常见 API 5.2.1 浏览器操作 webdriver 返回的 browser 对象中提供了丰富的 API 用于操作浏览器。 browser.maximize_window()最大化浏览器browser.current_url当前网页 urlbrowser.get_cookie()当前网页用到的 cookie 信息browser.name当前浏览器驱动名称browser.title当前网页标题browser.page_source获取当前网页源代码browser.current_window_handle获取当前网页的窗口browser.refresh()刷新当前网页browser.quit()关闭浏览器browser.close()关闭当前网页browser.back()返回上一页 5.2.2 查找标签 完成了网页的访问后如果需要模拟用户操作网页元素则需要先通过标签来定位网页元素。 find_element(self, byBy.ID, valueNone) 查找元素其中 By.ID 是枚举类型 ID通过元素 id 定位XPATH通过 xpath 表达式定位LINK_TEXT通过完整超链接定位PARTIAL_LINK_TEXT通过模糊超链接定位NAME通过元素 name 定位TAG_NAME通过标签定位CLASS_NAME通过 class 进行定位CSS_SELECTOR通过 css 选择器进行定位。 使用示例 from selenium import webdriver from selenium.webdriver.common.by import Byif __name__ __main__:browser webdriver.Chrome(executable_path./chromedriver_mac64/chromedriver)browser.get(https://www.baidu.com)tag1 browser.find_element(byBy.ID, valueform)print(tag1.get_attribute(class)) 找到标签后就可以通过 get_attribute 方法获取对应的属性值。 5.3 模拟鼠标操作 常用的鼠标操作有单击、双击、右击、长按、拖动、移动等模拟这些操作需要用到 Selenium 模块中的ActionChains 类。它提供了以下方法 click()模拟点击double_click()模拟双击click_and_hold()鼠标长按click_and_hold()释放鼠标按 下面以打开百度首页的图片链接为例 from selenium import webdriver from selenium.webdriver import ActionChains from selenium.webdriver.common.by import Byif __name__ __main__:browser webdriver.Chrome(executable_path./chromedriver_mac64/chromedriver)browser.get(https://www.baidu.com)# 找到图片链接alink browser.find_element(byBy.LINK_TEXT, value图片)print(alink.get_attribute(href))actions ActionChains(browser)actions.click(alink).perform() 运行成功后会首先打开百度首页然后跳转到百度图片页面。 6. 总结 在本次的实践过程中体会到使用 Python 爬虫的方便性在学习的过程中主要参照《零基础学Python爬虫、数据分析与可视化从入门到精通》这本书总体也算作快速入门了。 如果你对Python感兴趣想要学习python这里给大家分享一份Python全套学习资料都是我自己学习时整理的希望可以帮到你一起加油 有需要的小伙伴可以V扫描下方二维码免费领取 ​ 1️⃣零基础入门 ① 学习路线 对于从来没有接触过Python的同学我们帮你准备了详细的学习成长路线图。可以说是最科学最系统的学习路线你可以按照上面的知识点去找对应的学习资源保证自己学得较为全面。 ② 路线对应学习视频 还有很多适合0基础入门的学习视频有了这些视频轻轻松松上手Python~ ③练习题 每节视频课后都有对应的练习题哦可以检验学习成果哈哈 2️⃣国内外Python书籍、文档 ① 文档和书籍资料 3️⃣Python工具包项目源码合集 ①Python工具包 学习Python常用的开发软件都在这里了每个都有详细的安装教程保证你可以安装成功哦 ②Python实战案例 光学理论是没用的要学会跟着一起敲代码动手实操才能将自己的所学运用到实际当中去这时候可以搞点实战案例来学习。100实战案例源码等你来拿 ③Python小游戏源码 如果觉得上面的实战案例有点枯燥可以试试自己用Python编写小游戏让你的学习过程中增添一点趣味 4️⃣Python面试题 我们学会了Python之后有了技能就可以出去找工作啦下面这些面试题是都来自阿里、腾讯、字节等一线互联网大厂并且有阿里大佬给出了权威的解答刷完这一套面试资料相信大家都能找到满意的工作。 上述所有资料 ⚡️ 朋友们如果有需要的可以扫描下方二维码免费领取 ​
http://www.zqtcl.cn/news/647203/

相关文章:

  • 东软 网站群平台建设用个人电脑做网站服务器
  • 音乐播放网站开发pc端营销网站的关键字
  • 江门网站推广宿州官方网站建设
  • 企业网站建设策划书范文江苏高端网站建设
  • 网站开发 浏览器济宁网站建设服务
  • 整套网站建设网站开发中如何实现gps定位
  • 网站建设计划表福州自助建站
  • 网站做的比较好的公司吗2017年做网站多少钱
  • 基础展示营销型型网站重庆百度总代理
  • 网站建设 技术可行性这是我自己做的网站
  • 西安网站策划关键词优化哪家好
  • 能看建设动漫黄图的网站海外仓一件代发平台
  • 做网站都需要了解什么大连福佳新城2026年建站吗
  • php 网站部署到服务器泉州模板建站哪家好
  • 网站服务器上的跳转选择怎么做网站是怎么建立的
  • 网站后台目录如何保护公司网站建设需要要求什么软件
  • 四川省建设厅网站官网自己做的网站能上传到凡科吗
  • 米拓网站建设-app定制开发免费个人建站系统
  • 网站改版公司如何帮公司做网站
  • 曹县汽车网站建设网站怎么做才 吸引人
  • 河南周口东宇网站建设wordpress怎么重新安装插件
  • wordpress无法上传主题南通做网站优化公司
  • 做彩票网站能挣到钱吗南充市房产信息网
  • 沧州北京网站建设金华网站建设哪个公司好点
  • 北京朝阳建站优化wordpress主题访问慢
  • wordpress最快仿站酷炫个人特别网站
  • 公司建站详细步骤如何注册一家公司要多少钱
  • 网站推广网络营销山西大学物理电子工程学院研招网
  • 亚马逊做国际外贸在哪个网站毕业设计网站开发选题依据
  • 镇江网站排名优化费用app软件开发平台游戏