Skip to main content

ai-learn

· 2 min read
Spark light

refs site

To remember

  • one-hot encoding
  • torch.nn.Liner
  • torch.nn.Embedding
torch.tensor([[1,2,4,5]])
weights = torch.rand(10, 3)
net = torch.nn.liner(10,2)
print(net,net.h)
torch.mm

AI > machine learning > deep learning

pytorch.nn.Embedding

理解Epoch, Batch, and Mini-batch

  • Gradient Descent
  • Batch Gradient Descent
  • Stochastic Gradient Descent
  • Mini-Batch Gradient Descent
  • 比如有个2000个sample
  • 将2000个sample整体 一次性输入 (input net train&backward feedback) 就是Batch Gradient Descent
  • 2000个数据one by one共2000次分别(input net train&backward feedback) 就是 stochastic gradient descent
  • 2000个数据份 n组 每组2000/n个sample(input net train&backward feedback) 就是Mini-Batch Gradient Descent
  • 上面三个方式,一次整体sample train完称为一个epoch
  • 要经过多次epoch才能达到(Gradient Descent)剃度下降效果

similarity相似度 | diversity index多样性指数

  • Cosine similarity #向量i和j之间的向量夹角大小 越小越相似
  • Pearson Correlation Coefficient(皮尔逊相关系数) #与余弦相似度相比,加入了用户平均分对各独立评分进行修正,减小了用户评分偏置的影响
  • Euclidean Distance #m维空间中两点之间的距离
  • Jaccard Index(Jaccard similarity coefficient) #两个集合A和B的交集在其二者的并集中所占的比例
  • Jaccard Distance #两个集合中不同元素占所有元素的比例来衡量两个集合的区分度