随机切分csv训练集和测试集

Posted cloud-ken

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了随机切分csv训练集和测试集相关的知识,希望对你有一定的参考价值。

使用numpy切分训练集和测试集

觉得有用的话,欢迎一起讨论相互学习~Follow Me

序言

在机器学习的任务中,时常需要将一个完整的数据集切分为训练集和测试集。此处我们使用numpy完成这个任务。
iris数据集中有150条数据,我们将120条数据整合为训练集,将30条数据整合为测试集。

iris.csv下载

程序

import csv
import os
import numpy as np

‘‘‘将iris.csv中的数据分成train_iris和test_iris两个csv文件,其中train_iris.csv中有120个数据,test_iris.csv中有30个数据‘‘‘
labels = []
data = []
a_train_file = ‘train_iris.csv‘
a_test_file = ‘test_iris.csv‘
a_file = ‘iris.csv‘

seed = 3
np.random.seed(seed)
train_indices = np.random.choice(150, 120, replace=False) # 设置随机数生成从0-150中随机挑选120个随机数
residue = np.array(list(set(range(150)) - set(train_indices)))
test_indices = np.random.choice(len(residue),30, replace=False) # 如果训练集和测试集综合的数据加起来就是一整个数据集则不需要这个操作

with open(a_file)as afile:
    a_reader = csv.reader(afile)  #从原始数据集中将所有数据读取出来并保存到a_reader中
    labels = next(a_reader)  # 提取第一行设置为labels
    for row in a_reader:  # 将a_reader中每一行的数据提取出来并保存到data的列表中
        data.append(row)


# 生成训练数据集
if not os.path.exists(a_train_file):
    with open(a_train_file, "w", newline=‘‘) as a_trian:
        writer = csv.writer(a_trian)
        writer.writerows([labels])  #第一行为标签行
        writer.writerows(np.array(data)[train_indices])
        a_trian.close()

# 生成测试数据集
if not os.path.exists(a_test_file):
    with open(a_test_file, "w", newline=‘‘)as a_test:
        writer = csv.writer(a_test)
        writer.writerows([labels])  #第一行为标签行
        writer.writerows(np.array(data)[test_indices])
        a_test.close()

以上是关于随机切分csv训练集和测试集的主要内容,如果未能解决你的问题,请参考以下文章

sklearn——train_test_split 随机划分训练集和测试集

如何按百分比将 CSV 数据集拆分为训练集和测试集,并将拆分后的数据集与 pandas 一起保存到本地文件夹中? [复制]

R语言数据集划分(使用随机分组标记分成测试集和训练集)对于数据集中多条数据有关系或者依赖的情况获得分组数据的ID,并为相同分组数据生成相同的抽样ID,之后再抽样生成测试集和训练集

Alink漫谈 : 如何划分训练数据集和测试数据集

训练集和测试集

R语言决策树bagging随机森林模型在训练集以及测试集的预测结果(accurayF1偏差Deviance)对比分析计算训练集和测试集的预测结果的差值来分析模型的过拟合(overfit)情况