240 发简信
IP属地:宁夏
  • 关于Attention和LLM

    Attention Attention(注意力机制)是一种在处理序列数据时的机制,它能够使得模型在处理每一个元素时能够“关注”到序列中的其他元素...

  • Sora原理学习与思考

    笔记 1. Sora的能力边界探索 高清视频生成:Sora的最大亮点之一是其能够生成高清视频,最长可达60秒。这对于创意内容的产生和增强提供了新...