《自然语言处理》- Jieba分词器的使用
1. jieba 中文分词处理import jiebatext = "大部分情况下,词汇是我们对句子和文章理解的基础,因此需要一个工具去把完整的文本中分解成粒度更细的词。"cut_result = jieba.cut(text, cut_all=True) # 全模式print
前言本章节主要介绍如何使用torch.utils.data 中的Dataset和Dataloader来构建数据集, 重点要看使用细节DataSettorch.utils.data.Dataset功能 : Dataset抽象;类, 所有自定义的Dataset都需要继承他, 并重写相应的方法getite
1. Pytorch的统计学函数import torchfor module in torch,: print(module.__name__, module.__version__)torch 1.9.1+cpu1.1 均值与最大最小值torch.mean() 返回平均值torch.sum(
1. inplace和广播机制in-place 操作就地操作, 不适用临时变量, 比如 a.add_(b) = a + b => 计算结果直接赋值给 a 等价于 a += b广播机制张量参数可以自动的扩展为相同的大小广播机制满足的条件每个张量至少有一个维度满足右对齐 :例如 torch.ran
1. PytorchTensor Base1.1 torch.tensor1.2 torch.Tensor1.3 torch.empty1.4 torch.zeros1.5 torch.zeros_like1.6 torch.eye1.7 torch.ones1.8 torch.ones_like1
Task1 初识matplotlib本章节知识点导入模块: import matplotlib.pyplot as plt/import numpy as np定义图像窗口:plt.figure()画图:plt.plot(x,y)定义坐标轴范围:plt.xlim()/plt.ylim()定义坐标轴名