2020-02-27-ModelCode

召回策略:热度,LBS,user tag,itemcf,频繁模式挖掘,二部图挖掘,embedding(word2vec、fasttext、bert),deep match排序策略,learning to rank 流程三大模式(pointwise、pairwise、listwise),常见的特征挖掘(user、item、context,以及相互交叉),ctr预估(lr、gbdt、fm、ffm、dnn、widedeep、dcn、deepfm)探索与发现(bandit、Q-Learning、DQN)

LSH算法的优势是,可以在线性时间内获取相似的topK向量,类似于搜索引擎和NLP算法实现,大多数情况下无法对全量数据进行计算,这样复杂度是n的平方,海量数据n的平方复杂度是可怕的。局部敏感哈希的基本思想类似于一种空间域转换思想,LSH算法基于一个假设,如果两个向量在原有的数据空间是相似的,那么分别经过哈希函数转换以后的它们也具有很高的相似度;相反,如果它们本身是不相似的,那么经过转换后它们应仍不具有相似性。

import java.text.SimpleDateFormat
import java.util.{Calendar, Date}

import org.apache.spark.sql.{DataFrame, SparkSession}
import org.apache.spark.{SparkConf, SparkContext, mllib}
import org.apache.spark.mllib.linalg.{Vector, Vectors}
import org.apache.spark.mllib.recommendation.ALS
import com.soundcloud.lsh.{Cosine, Lsh, NearestNeighbours}
import org.apache.spark.mllib.linalg.distributed.{IndexedRow, IndexedRowMatrix}
import org.apache.spark.storage.StorageLevel
import org.apache.spark.mllib.recommendation.Rating

import scala.collection.mutable.ArrayBuffer
object CosineLSHJoinSpark {

  def main(args: Array[String]){

    val conf = new SparkConf().setAppName("CosineLSHJoinSpark")
    val sc = new SparkContext(conf)
    val sqlContext = new org.apache.spark.sql.SQLContext(sc)
    val df = sqlContext.read.format("orc").load(getLastNDaysPath(15))
    df.show

    val (ratings,productMap) = datatransform_formkpixel(df)
    ratings.take(20).foreach(println)
    // Build the recommendation model using ALS
    val rank = 10
    val numIterations = 10
    val model = ALS.train(ratings, rank, numIterations, 0.02)

    val vectorArray: ArrayBuffer[IndexedRow] = new ArrayBuffer[IndexedRow]()
    val fdata=model.productFeatures.collect()

    for(i <- 0 until fdata.length) {
      if(fdata(i)!=null && fdata(i)._1!=null && fdata(i)._2!=null) {
        val t=fdata(i)  //(int,Array[double]) (productID,vector)
        val ir=IndexedRow(i,Vectors.dense(t._2))
        vectorArray.append(ir)
      }
    }
    val idxrows = sc.parallelize(vectorArray)
    val idxmat: IndexedRowMatrix = new IndexedRowMatrix(idxrows)
    /*
        val rows = Seq(
          IndexedRow(1, Vectors.dense(1.0, 1.0, 1.0)),
          IndexedRow(2, Vectors.dense(2.0, 2.0, 2.0)),
          IndexedRow(5, Vectors.dense(6.0, 3.0, 2.0))
        )
        val matrix = new IndexedRowMatrix(sparkSession.sparkContext.parallelize(rows))
        */
    val lsh = new Lsh(
      minCosineSimilarity = 0.1,
      dimensions = 20,
      numNeighbours = 10,
      numPermutations = 2
    )
    val similariyMatrix = lsh.join(idxmat)

    val orderTable=similariyMatrix.entries.groupBy(tup => tup.i).flatMap(tup =>{
      tup._2.toList.sortWith((a,b) =>a.value>b.value)
    })

    val results = orderTable.map {
      entry =>
        "%s %s %.6f".format(productMap(entry.i), productMap(entry.j), entry.value)
    }

    results.take(20).foreach(println)
    results.saveAsTextFile("this is save path ")

    // above will print:
    // item:2 item:5 cosine:0.91
    // item:1 item:5 cosine:0.91
    // item:1 item:2 cosine:1,00
  }
  def datatransform(df:DataFrame) ={
    val r = df.rdd
    val affData = r.flatMap(row => {
      val result: ArrayBuffer[(String, String)] = new ArrayBuffer[(String, String)]()
      val ifa: String = if (row(0) != null) row.getString(0) else null
      val bundle: Array[String] = if (row(1) != null) row.getSeq[String](1).toArray[String] else null
      if (bundle != null && bundle.length > 1) {
        bundle.foreach(b => {
          result.append((ifa, b.trim))
        })
      }
      result
    }).filter(x => x._1 != null && x._2 != null )
    val stringData=affData.map(x =>(x._1,x._2,1))

    //get distinct names and products and create maps from them
    val ifaname = stringData.map(_._1).distinct.sortBy(x => x).zipWithIndex.collectAsMap
    val products = stringData.map(_._2).distinct.sortBy(x => x).zipWithIndex.collectAsMap

    val data_rating=stringData.map(r => Rating(ifaname(r._1).toInt,products(r._2).toInt,r._3))
    val reproducts=products.map(line=>(line._2,line._1))
    (data_rating,reproducts)
  }
  def datatransform_formkpixel(df:DataFrame) ={
    val r = df.rdd
    val affData = r.flatMap(row => {
      val result: ArrayBuffer[(String, String)] = new ArrayBuffer[(String, String)]()
      val ifa: String = if (row(8) != null) row.getString(8) else null
      val content = if (row(16) != null) row.getString(16) else null
      val content_ids: Array[String] = if (content != null) content.split(",") else null
      if (content_ids != null && content_ids.length > 1) {
        content_ids.foreach(b => {
          result.append((ifa, b.trim))
        })
      }
      result
    }).filter(x => x!=null && x._1 != null && x._2 != null)
    val stringData=affData.map(x =>(x._2,x._1,1)) //(content id,ifa,1)

    //get distinct names and products and create maps from them
    val ifaname = stringData.map(_._1).distinct.sortBy(x => x).zipWithIndex.collectAsMap
    val products = stringData.map(_._2).distinct.sortBy(x => x).zipWithIndex.collectAsMap

    val data_rating=stringData.map(r => Rating(ifaname(r._1).toInt,products(r._2).toInt,r._3))
    val reproducts=products.map(line=>(line._2,line._1))
    (data_rating,reproducts)
  }

  def getLastNDaysPath(days: Int ): String = {
    //println(date)
    val dateFormat: SimpleDateFormat = new SimpleDateFormat( "yyyyMMdd" )
    val date=dateFormat.format(new Date())
    val dateF: Date = dateFormat.parse(date)
    val cal: Calendar = Calendar.getInstance()
    cal.setTime(dateF)
    val dateArr = new ArrayBuffer[String]()
    //dateArr.append(date)
    var i = 1
    while ( i <= days ) {
      cal.add( Calendar.DATE, -i )
      dateArr.append(dateFormat.format( cal.getTime() ))
      i = i + 1
      cal.setTime(dateF)
    }
    val path = "this is path prefix/{"+ dateArr.mkString(",") +"}/*/*"
    println(path)
    path
  }
}
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 204,793评论 6 478
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 87,567评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 151,342评论 0 338
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,825评论 1 277
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,814评论 5 368
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,680评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,033评论 3 399
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,687评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 42,175评论 1 300
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,668评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,775评论 1 332
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,419评论 4 321
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,020评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,978评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,206评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 45,092评论 2 351
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,510评论 2 343

推荐阅读更多精彩内容

  • 前面的文章主要从理论的角度介绍了自然语言人机对话系统所可能涉及到的多个领域的经典模型和基础知识。这篇文章,甚至之后...
    我偏笑_NSNirvana阅读 13,862评论 2 64
  • Extracting, transforming and selecting features 这一大章节讲的内容...
    shohokuooo阅读 6,102评论 0 51
  • 1、机器学习概念 1.1机器学习的定义 在维基百科上对机器学习提出以下几种定义: l“机器学习是一门人工智能的科学...
    只此未央阅读 2,796评论 1 8
  • 昨天晚上抓住国庆节的尾巴,去看了心心念念已久的中国机长,果然没有让我失望。 感人的场面实在太多,有几个点特别令人印...
    杨米凡阅读 478评论 1 1
  • 很久之前就想研究React Native了,但是一直没有落地的机会,我一直认为一个技术要有落地的场景才有研究的意义...
    凌烟醉卧阅读 552评论 0 4