TopN问题

TOPN问题:实际案例与解决方案

目录

  1. 案例1:网站访问量统计
  2. 案例2:商品销售排行
  3. 案例3:社交媒体热门话题

案例1:网站访问量统计

问题描述:一个大型网站每天有数亿次页面访问。需要找出访问量最高的前1000个URL。

使用算法:最小堆

解决方案:使用最小堆来维护访问量最高的1000个URL。对于每个URL的访问记录,如果堆的大小小于1000,直接插入;否则,与堆顶元素比较,如果大于堆顶元素,则替换堆顶元素。

import heapq
from collections import defaultdict

def top_1000_visited_urls(log_entries):
    url_counts = defaultdict(int)
    
    # 统计每个URL的访问次数
    for entry in log_entries:
        url_counts[entry['url']] += 1
    
    # 使用最小堆找出访问量最高的1000个URL
    top_1000 = []
    for url, count in url_counts.items():
        if len(top_1000) < 1000:
            heapq.heappush(top_1000, (count, url))
        elif count > top_1000[0][0]:
            heapq.heapreplace(top_1000, (count, url))
    
    # 返回结果,按访问量从高到低排序
    return sorted([(url, count) for count, url in top_1000], key=lambda x: x[1], reverse=True)

# 示例使用
log_entries = [
    {'url': '/home', 'timestamp': '2023-05-01 10:00:00'},
    {'url': '/products', 'timestamp': '2023-05-01 10:01:00'},
    # ... 假设这里有数亿条记录
]

top_urls = top_1000_visited_urls(log_entries)
print("Top 10 visited URLs:")
for url, count in top_urls[:10]:
    print(f"{url}: {count} visits")

这种方法的时间复杂度是O(n log 1000),其中n是日志条目的总数。它能够有效地处理大量数据,而且只需要常数级的额外空间。

案例2:商品销售排行

问题描述:一个电商平台想要从过去一年销售的10亿件商品中,找出销售额前100名的商品。

使用算法:快速选择算法(QuickSelect)

解决方案:使用快速选择算法来找出销售额前100名的商品。这种方法特别适合处理大量数据,因为它不需要对全部数据进行排序。

import random

def quickselect_top100(sales_data, k=100):
    def partition(left, right, pivot_idx):
        pivot = sales_data[pivot_idx]
        sales_data[pivot_idx], sales_data[right] = sales_data[right], sales_data[pivot_idx]
        store_idx = left
        for i in range(left, right):
            if sales_data[i]['amount'] > pivot['amount']:
                sales_data[store_idx], sales_data[i] = sales_data[i], sales_data[store_idx]
                store_idx += 1
        sales_data[right], sales_data[store_idx] = sales_data[store_idx], sales_data[right]
        return store_idx

    def select(left, right):
        if left == right:
            return
        
        pivot_idx = random.randint(left, right)
        pivot_idx = partition(left, right, pivot_idx)
        
        if k == pivot_idx:
            return
        elif k < pivot_idx:
            select(left, pivot_idx - 1)
        else:
            select(pivot_idx + 1, right)

    select(0, len(sales_data) - 1)
    return sorted(sales_data[:k], key=lambda x: x['amount'], reverse=True)

# 示例使用
sales_data = [
    {'product_id': '001', 'amount': 5000},
    {'product_id': '002', 'amount': 3000},
    {'product_id': '003', 'amount': 7000},
    # ... 假设这里有10亿条记录
]

top_100_products = quickselect_top100(sales_data)
print("Top 10 selling products:")
for product in top_100_products[:10]:
    print(f"Product ID: {product['product_id']}, Sales Amount: {product['amount']}")

这种方法的平均时间复杂度是O(n),其中n是商品数量。它能够高效地处理大规模数据,而且不需要额外的空间来存储所有数据。

案例3:社交媒体热门话题

问题描述:一个社交媒体平台想要从过去24小时内发布的5亿条帖子中,找出被提及次数最多的前50个话题(hashtag)。

使用算法:MapReduce

解决方案:使用MapReduce来并行处理大量的帖子数据。这种方法特别适合分布式系统,可以处理超大规模的数据。

from collections import Counter
import heapq

def map_function(post):
    # 从帖子中提取话题
    hashtags = [word for word in post.split() if word.startswith('#')]
    # 为每个话题生成一个(话题, 1)的键值对
    return [(hashtag, 1) for hashtag in hashtags]

def reduce_function(hashtag, counts):
    # 将同一个话题的计数相加
    return (hashtag, sum(counts))

def top_50_hashtags(posts):
    # Map阶段
    mapped_data = [item for post in posts for item in map_function(post)]
    
    # Reduce阶段
    hashtag_counts = Counter()
    for hashtag, count in mapped_data:
        hashtag_counts[hashtag] += count
    
    # 找出前50个最热门的话题
    return heapq.nlargest(50, hashtag_counts.items(), key=lambda x: x[1])

# 示例使用
posts = [
    "今天天气真好 #阳光 #周末",
    "新电影很精彩 #电影 #周末",
    "美食节开始了 #美食 #周末",
    # ... 假设这里有5亿条帖子
]

top_hashtags = top_50_hashtags(posts)
print("Top 10 trending hashtags:")
for hashtag, count in top_hashtags[:10]:
    print(f"{hashtag}: mentioned {count} times")

这种方法的时间复杂度取决于MapReduce框架的实现和可用的计算资源。它的主要优势是可以在分布式系统上并行处理大量数据,非常适合处理社交媒体这样的大规模数据。

以上三个案例展示了如何在实际生活中应用不同的算法来解决TOPN问题。每种方法都有其特定的应用场景和优势:

  1. 最小堆适合处理流数据或需要动态更新的场景。
  2. 快速选择算法适合在单机上处理大量数据,而且不需要完全排序。
  3. MapReduce适合在分布式系统上处理超大规模数据。

选择哪种方法取决于具体的问题规模、系统架构和性能需求。

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 216,496评论 6 501
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 92,407评论 3 392
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 162,632评论 0 353
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,180评论 1 292
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,198评论 6 388
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,165评论 1 299
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,052评论 3 418
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,910评论 0 274
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,324评论 1 310
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,542评论 2 332
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,711评论 1 348
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,424评论 5 343
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,017评论 3 326
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,668评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,823评论 1 269
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,722评论 2 368
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,611评论 2 353

推荐阅读更多精彩内容

  • 1:描述tcp/udp的区别及优劣,及其发展前景 TCP 建立连接 完整性强 速度慢—当数据传输的性能必须让位于数...
    Triplesc阅读 1,649评论 0 1
  • 最近一直在思考一个问题:关于海量数据,如果不借助Hadoop/MapReduce模型该如何处理呢?首先,我们可以先...
    Edwin_天寻阅读 1,255评论 0 0
  • 前言 大家好,我是小彭。 今天分享到的是一种相对冷门的数据结构 —— 并查集。虽然冷门,但是它背后体现的算法思想却...
    彭旭锐阅读 151评论 0 1
  • Bookmarks 书签栏 入职 华为新员工小百科(刷新时间202003023) - 人才供应知多少 - 3MS知...
    Btrace阅读 1,359评论 0 0
  • 来源于我的GitHub博客中的一篇,是对大数据系统实践这本书的简单总结 (一).新范式 [https://nino...
    冰菓_阅读 838评论 0 0