襄阳高新区建设局网站,网站后台的seo功能,性男女做视频网站,网站功能定位分析Python读写csv文件觉得有用的话,欢迎一起讨论相互学习~Follow Me前言逗号分隔值(Comma-Separated Values#xff0c;CSV#xff0c;有时也称为字符分隔值#xff0c;因为分隔字符也可以不是逗号)#xff0c;其文件以纯文本形式存储表格数据(数字和文本)。纯文本意味着该文件…Python读写csv文件觉得有用的话,欢迎一起讨论相互学习~Follow Me前言逗号分隔值(Comma-Separated ValuesCSV有时也称为字符分隔值因为分隔字符也可以不是逗号)其文件以纯文本形式存储表格数据(数字和文本)。纯文本意味着该文件是一个字符序列不含必须像二进制数字那样被解读的数据。CSV文件由任意数目的记录组成记录间以某种换行符分隔每条记录由字段组成字段间的分隔符是其它字符或字符串最常见的是逗号或制表符。通常所有记录都有完全相同的字段序列.特点读取出的数据一般为字符类型如果是数字需要人为转换为数字以行为单位读取数据列之间以半角逗号或制表符为分隔一般为半角逗号一般为每行开头不空格第一行是属性列数据列之间以间隔符为间隔无空格行之间无空行。行之间无空行十分重要如果有空行或者数据集中行末有空格读取数据时一般会出错引发[list index out of range]错误。PS已经被这个错误坑过很多次使用python I/O写入和读取CSV文件使用PythonI/O写入csv文件以下是将birthweight.dat低出生体重的dat文件从作者源处下载下来并且将其处理后保存到csv文件中的代码。import csvimport osimport numpy as npimport randomimport requests# name of data file# 数据集名称birth_weight_file birth_weight.csv# download data and create data file if file does not exist in current directory# 如果当前文件夹下没有birth_weight.csv数据集则下载dat文件并生成csv文件if not os.path.exists(birth_weight_file):birthdata_url https://github.com/nfmcclure/tensorflow_cookbook/raw/master/01_Introduction/07_Working_with_Data_Sources/birthweight_data/birthweight.datbirth_file requests.get(birthdata_url)birth_data birth_file.text.split(\r\n)# split分割函数,以一行作为分割函数windows中换行符号为\r\n,每一行后面都有一个\r\n符号。birth_header birth_data[0].split(\t)# 每一列的标题标在第一行即是birth_data的第一个数据。并使用制表符作为划分。birth_data [[float(x) for x in y.split(\t) if len(x) 1] for y in birth_data[1:] if len(y) 1]print(np.array(birth_data).shape)# (189, 9)# 此为list数据形式不是numpy数组不能使用np,shape函数,但是我们可以使用np.array函数将list对象转化为numpy数组后使用shape属性进行查看。with open(birth_weight_file, w, newline) as f:# with open(birth_weight_file, w) as f:writer csv.writer(f)writer.writerows([birth_header])writer.writerows(birth_data)f.close()常见错误list index out of range其中我们重点需要讲的是 with open(birth_weight_file, w, newline) as f: 这个语句。表示写入csv文件,如果不加上参数 newline 表示以空格作为换行符而是用 with open(birth_weight_file, w) as f: 语句。则生成的表格中会出现空行。不仅仅是用python I/O进行csv数据的读写时利用其余方法读写csv数据或者从网上下载好csv数据集后都需要查看其每行后有没有空格或者有没有多余的空行。避免不必要的错误~影响数据分析时的判断。使用PythonI/O读取csv文件使用python I/O方法进行读取时即是新建一个List 列表然后按照先行后列的顺序(类似C语言中的二维数组)将数据存进空的List对象中如果需要将其转化为numpy 数组也可以使用np.array(List name)进行对象之间的转化。birth_data []with open(birth_weight_file) as csvfile:csv_reader csv.reader(csvfile) # 使用csv.reader读取csvfile中的文件birth_header next(csv_reader) # 读取第一行每一列的标题for row in csv_reader: # 将csv 文件中的数据保存到birth_data中birth_data.append(row)birth_data [[float(x) for x in row] for row in birth_data] # 将数据从string形式转换为float形式birth_data np.array(birth_data) # 将list数组转化成array数组便于查看数据结构birth_header np.array(birth_header)print(birth_data.shape) # 利用.shape查看结构。print(birth_header.shape)## (189, 9)# (9,)使用Pandas读取CSV文件import pandas as pdcsv_data pd.read_csv(birth_weight.csv) # 读取训练数据print(csv_data.shape) # (189, 9)N 5csv_batch_data csv_data.tail(N) # 取后5条数据print(csv_batch_data.shape) # (5, 9)train_batch_data csv_batch_data[list(range(3, 6))] # 取这20条数据的3到5列值(索引从0开始)print(train_batch_data)# RACE SMOKE PTL# 184 0.0 0.0 0.0# 185 0.0 0.0 1.0# 186 0.0 1.0 0.0# 187 0.0 0.0 0.0# 188 0.0 0.0 1.0使用Tensorflow读取CSV文件本人在平时一般都是使用Tensorflow处理各类数据所以对于使用Tensorflow读取数据在此不过多的进行解释。下面贴上一段代码如果有不懂的地方可以看我原来的博客内容。使用Tensorflow读取csv数据filename birth_weight.csvfile_queue tf.train.string_input_producer([filename]) # 设置文件名队列这样做能够批量读取文件夹中的文件reader tf.TextLineReader(skip_header_lines1) # 使用tensorflow文本行阅读器并且设置忽略第一行key, value reader.read(file_queue)defaults [[0.], [0.], [0.], [0.], [0.], [0.], [0.], [0.], [0.]] # 设置列属性的数据格式LOW, AGE, LWT, RACE, SMOKE, PTL, HT, UI, BWT tf.decode_csv(value, defaults)# 将读取的数据编码为我们设置的默认格式vertor_example tf.stack([AGE, LWT, RACE, SMOKE, PTL, HT, UI]) # 读取得到的中间7列属性为训练特征vertor_label tf.stack([BWT]) # 读取得到的BWT值表示训练标签# 用于给取出的数据添加上batch_size维度以批处理的方式读出数据。可以设置批处理数据大小是否重复读取数据容量大小队列末尾大小读取线程等属性。example_batch, label_batch tf.train.shuffle_batch([vertor_example, vertor_label], batch_size10, capacity100, min_after_dequeue10)# 初始化Sessionwith tf.Session() as sess:coord tf.train.Coordinator() # 线程管理器threads tf.train.start_queue_runners(coordcoord)print(sess.run(tf.shape(example_batch))) # [10 7]print(sess.run(tf.shape(label_batch))) # [10 1]print(sess.run(example_batch)[3]) # [ 19. 91. 0. 1. 1. 0. 1.]coord.request_stop()coord.join(threads)对于使用所有Tensorflow的I/O操作来说开启和关闭线程管理器都是必要的操作with tf.Session() as sess:coord tf.train.Coordinator() # 线程管理器threads tf.train.start_queue_runners(coordcoord)# Your code here~coord.request_stop()coord.join(threads)还有其他使用python读取文件的各种方法这里介绍三种不定期进行补充。