HuggingFace学习笔记--datasets的使用

目录

1--datasets的使用

1-1--加载数据集

1-2--查看数据集

1-3--打乱和排序数据集

1-4--选择和筛选数据集

1-5--划分数据集

1-6--修改数据集

1-7--导出数据集


1--datasets的使用

1-1--加载数据集

代码:

from datasets import load_dataset, load_from_disk

if __name__ == "__main__":
    # 加载数据集
    dataset = load_dataset(path = 'lansinuote/ChnSentiCorp')
    # 保存数据集
    dataset.save_to_disk(dataset_dict_path = './data/ChnSentiCorp')
    # 从本地加载数据集
    dataset = load_from_disk('./data/ChnSentiCorp')
    print(dataset)

输出结果:

DatasetDict({
    train: Dataset({
        features: ['text', 'label'],
        num_rows: 9600
    })
    validation: Dataset({
        features: ['text', 'label'],
        num_rows: 1200
    })
    test: Dataset({
        features: ['text', 'label'],
        num_rows: 1200
    })
})

1-2--查看数据集

代码:

from datasets import load_from_disk

if __name__ == "__main__":
    # 从本地加载数据集
    dataset = load_from_disk('./data/ChnSentiCorp')
    # 取出训练集
    dataset = dataset['train']
    print(dataset)
    print(dataset[0]) # 查看单个样本

输出结果:

Dataset({
    features: ['text', 'label'],
    num_rows: 9600
})
{'text': '选择珠江花园的原因就是方便,有电动扶梯直接到达海边,周围餐馆、食廊、商场、超市、摊位一应俱全。酒店装修一般,但还算整洁。 泳池在大堂的屋顶,因此很小,不过女儿倒是喜欢。 包的早餐是西式的,还算丰富。 服务吗,一般', 'label': 1}

1-3--打乱和排序数据集

代码:

from datasets import load_from_disk

if __name__ == "__main__":
    # 从本地加载数据集
    dataset = load_from_disk('./data/ChnSentiCorp')
    # 取出训练集
    dataset = dataset['train']
    print(dataset['label'][:10]) # 未排序前是乱序的
    
    # 排序
    sorted_dataset = dataset.sort('label')
    print("sort: ", sorted_dataset['label'][:10])
    print("sort: ", sorted_dataset['label'][-10:])
    
    # 打乱
    shuffled_dataset = sorted_dataset.shuffle(seed = 1) # 设置随机种子打乱
    print("shuffle: ", shuffled_dataset['label'][:10])

输出结果:

[1, 1, 0, 0, 1, 0, 0, 0, 1, 1]
sort:  [0, 0, 0, 0, 0, 0, 0, 0, 0, 0]
sort:  [1, 1, 1, 1, 1, 1, 1, 1, 1, 1]
shuffle:  [0, 1, 0, 0, 0, 0, 0, 1, 0, 1]

1-4--选择和筛选数据集

代码:

from datasets import load_dataset, load_from_disk

if __name__ == "__main__":
    # 从本地加载数据集
    dataset = load_from_disk('./data/ChnSentiCorp')
    # 取出训练集
    dataset = dataset['train']
    sel_data = dataset.select([0, 10, 20, 30, 40, 50]) # 根据索引选取数据集
    print(sel_data)
    
    # 筛选数据集
    def f(data):
        return data['text'].startswith('选择') # 筛选以选择开头的
    start_with_ar = dataset.filter(f)
    print(len(start_with_ar))
    print(start_with_ar['text'])

输出结果:

Dataset({
    features: ['text', 'label'],
    num_rows: 6
})
Filter: 100%|█████████████████████████████████████████████████████████████████| 9600/9600 [00:00<00:00, 231601.55 examples/s]
2
['选择珠江花园的原因就是方便,有电动扶梯直接到达海边,周围餐馆、食廊、商场、超市、摊位一应俱全。酒店装修一般,但还算整洁。 泳池在大堂的屋顶,因此很小,不过女儿倒是喜欢。 包的早餐是西式的,还算丰富。 服务吗,一般', '选择的事例太离奇了,夸大了心理咨询的现实意义,让人失去了信任感!如果说这样写的效果能在一开始抓住读者的眼球,但是看到案例主人公心理问题的原因解释时就逐渐失去了兴趣,反正有点拣了芝麻丢了西瓜的感觉。']

1-5--划分数据集

代码:

from datasets import load_from_disk

if __name__ == "__main__":
    # 从本地加载数据集
    dataset = load_from_disk('./data/ChnSentiCorp')
    # 取出训练集
    dataset = dataset['train']
    print(dataset)
    # 划分数据集
    new_dataset1 = dataset.train_test_split(test_size = 0.1)
    print(new_dataset1)
    
    # 数据集均分到四个桶里,并取第一个桶
    new_dataset2 = dataset.shard(num_shards = 4, index = 0)
    print(new_dataset2)

输出结果:

# 训练集
Dataset({
    features: ['text', 'label'],
    num_rows: 9600
})
# 训练集按比例划分
DatasetDict({
    train: Dataset({
        features: ['text', 'label'],
        num_rows: 8640
    })
    test: Dataset({
        features: ['text', 'label'],
        num_rows: 960
    })
})
# 第一桶的数据
Dataset({
    features: ['text', 'label'],
    num_rows: 2400
})

1-6--修改数据集

代码:

from datasets import load_from_disk

if __name__ == "__main__":
    # 从本地加载数据集
    dataset = load_from_disk('./data/ChnSentiCorp')
    # 取出训练集
    dataset = dataset['train']
    # 修改列名,将text更改为mytext
    new_dataset1 = dataset.rename_column('text', 'mytext')
    print(new_dataset1)
    # 删除列名
    new_dataset2 = dataset.remove_columns(['text'])
    print(new_dataset2)
    
    # 修改数据
    def f(data):
        data['text'] = 'My sentence: ' + data['text'] # 每一个句子都增加前缀
        return data
    datatset_map = dataset.map(f)
    print(datatset_map['text'][:5]) 

    # 修改类型
    dataset.set_format(type = 'torch', columns = ['label'])
    print(dataset[0])

输出结果:

# 更改列名
Dataset({
    features: ['mytext', 'label'],
    num_rows: 9600
})
# 删除列
Dataset({
    features: ['label'],
    num_rows: 9600
})
# 修改数据
['My sentence: 选择珠江花园的原因就是方便,有电动扶梯直接到达海边,周围餐馆、食廊、商场、超市、摊位一应俱全。酒店装修一般,但还算整洁。 泳池在大堂的屋顶,因此很小,不过女儿倒是喜欢。 包的早餐是西式的,还算丰富。 服务吗,一般', 
'My sentence: 15.4寸笔记本的键盘确实爽,基本跟台式机差不多了,蛮喜欢数字小键盘,输数字特方便,样子也很美观,做工也相当不错', 
'My sentence: 房间太小。其他的都一般。。。。。。。。。', 
'My sentence: 1.接电源没有几分钟,电源适配器热的不行. 2.摄像头用不起来. 3.机盖的钢琴漆,手不能摸,一摸一个印. 4.硬盘分区不好办.', 
'My sentence: 今天才知道这书还有第6卷,真有点郁闷:为什么同一套书有两种版本呢?当当网是不是该跟出版社商量商量,单独出个第6卷,让我们的孩子不会有所遗憾。']
# 修改类型
{'label': tensor(1)}

1-7--导出数据集

代码:

from datasets import load_from_disk

if __name__ == "__main__":
    # 从本地加载数据集
    dataset = load_from_disk('./data/ChnSentiCorp')
    # 取出训练集
    dataset = dataset['train']
    # 保存为csv格式
    dataset.to_csv(path_or_buf = './data/ChnSentiCorp.csv')
    # 加载csv格式数据
    csv_dataset = load_dataset(path='csv', data_files='./data/ChnSentiCorp.csv', split='train')
    print(dataset[0])
    print(csv_dataset[0])
    
    # 保存为json格式
    dataset.to_json(path_or_buf = './data/ChnSentiCorp.json')
    # 加载json格式数据
    json_dataset = load_dataset(path='json', data_files='./data/ChnSentiCorp.json', split='train')
    print(dataset[1])
    print(json_dataset[1])

输出结果:

{'text': '选择珠江花园的原因就是方便,有电动扶梯直接到达海边,周围餐馆、食廊、商场、超市、摊位一应俱全。酒店装修一般,但还算整洁。 泳池在大堂的屋顶,因此很小,不过女儿倒是喜欢。 包的早餐是西式的,还算丰富。 服务吗,一般', 'label': 1}
{'text': '选择珠江花园的原因就是方便,有电动扶梯直接到达海边,周围餐馆、食廊、商场、超市、摊位一应俱全。酒店装修一般,但还算整洁。 泳池在大堂的屋顶,因此很小,不过女儿倒是喜欢。 包的早餐是西式的,还算丰富。 服务吗,一般', 'label': 1}

{'text': '15.4寸笔记本的键盘确实爽,基本跟台式机差不多了,蛮喜欢数字小键盘,输数字特方便,样子也很美观,做工也相当不错', 'label': 1}
{'text': '15.4寸笔记本的键盘确实爽,基本跟台式机差不多了,蛮喜欢数字小键盘,输数字特方便,样子也很美观,做工也相当不错', 'label': 1}

你可能感兴趣的:(HuggingFace学习笔记,深度学习)