240 发简信
IP属地:山东
  • Json根据对象属性值得到相应对象

    //1. 获取 name 等于 lily 的对象 var lily = persons.filter((p) => { return p.name == "lily"; ...

  • Json添加属性

    1. 直接 json对象 点 属性添加 var test={name:"name",age:"12"}; test.id = "12345"; 2. json对象 ["属性"...

  • Python gensim.word2vec实例

    word2vec是google的一个开源工具,能够根据输入的词的集合计算出词与词之间的距离。 它将term转换成向量形式,可以把对文本内容的处理简化为向量空间中的向量运算,计...

  • 120
    语义分析LSA

    简单介绍 LSA和传统向量空间模型(vector space model)一样使用向量来表示词(terms)和文档(documents),并通过向量间的关系(如夹角)来判断词...

  • sqllite3创建表

    import sqlite3 # 可以指定创建数据库的路径,比如可以写成sqlite3.connect(r"E:\DEMO.db") con = sqlite3.connec...

  • SQLite3 一列多行合并为一列一行

    --GROUP_CONCAT()函数用来合并列的内容 SELECT activeid,GROUP_CONCAT(modelName) FROM TEST GROUP BY a...

  • 中文分词-jieba原理

    jieba分词的原理(jieba分词依靠中文词库) 利用一个中文词库,确定汉字之间的关联概率 汉字间概率大的组成词组,形成分词结果 除了分词,用户还可以添加自定义...

  • 中文分词-jieba#安装出错

    输入命令:pip install jieba 运行出错: error: could not create 'c:\program files\python38\Lib\sit...

  • 中文分词-jieba#安装

    代码对 Python 2/3 均兼容 全自动安装:easy_install jieba或者pip install jieba/pip3 install jieba 半自动安装...

  • 中文分词-jieba#人工智能

    jieba库概述 中文文本需要通过分词获得单个的词语 jieba是优秀的中文分词第三方库,需要额外安装 jieba库提供三种分词模式,最简单只需要掌握一个函数 j...

  • 我爱自然语言处理#人工智能

    简单来说,自然语言处理就是开发能够理解人类语言的应用程序或服务。 如语音识别、语音翻译、理解完整的句子、理解匹配词的同义词,以及生成语法正确完整句子和段落。 这里重点讨论文字...

  • 人工智能#自然语言处理2022-01-08

    人工智能在计算机领域内,得到了愈加广泛的重视。并在机器人,经济政治决策,控制系统,仿真系统中得到应用。 尼尔逊教授对人工智能下了这样一个定义:“人工智能是关于知识的学科――怎...