class_weight

  1. 创建数据。
x = torch.randn(20, 5)  # 20个sample,5个类别各自的output
y = torch.randint(0, 5, (20,))  # 20个sample的真实标签,值为0-4。
print(Counter(y.numpy()))  # 输出各个类别有多少samples。
"""
x是model的output。
y是真实的label。
其中:
Counter({2: 3, 0: 5, 3: 5, 4: 4, 1: 3})
"""
  1. 使用sklearn自动计算class_weight。
import sklearn.utils.class_weight as class_weight
class_weights=class_weight.compute_class_weight(
                                 class_weight='balanced',
                                 classes=np.unique(y),
                                 y=y.numpy())
"""
需要给定3个值。
1. class_weight:计算class weight的方式。如果选择'balanced', 由下式计算:
    n_samples / (n_classes * np.bincount(y))
    即:
    对于类1,一共有20个samples,第1类有3个samples,一共有5类。
    class_weight_1 = 20/(3*5) = 1.3333
2. classes:有哪些类。
    此处classes=tensor([0.8000, 1.3333, 1.3333, 0.8000, 1.0000])
3. y: 真实label。

output:
class_weight:
[0.8000, 1.3333, 1.3333, 0.8000, 1.0000]
"""
  1. 在定义loss_function时将class_weight传入loss function。
class_weights = torch.Tensor(class_weights)
loss = nn.CrossEntropyLoss(weight=class_weights,reduction='mean')
# 此处weight输入必须是tensor格式。
  1. 计算loss。
loss_weighted = loss(x, y)
"""
output:
tensor(2.4286)
"""

总:

# 利用sklearn的class_weight计算weights
import torch
from collections import Counter
import numpy as np
import sklearn.utils.class_weight as class_weight
import torch.nn as nn 

output = torch.randn(20, 5)  # 20个sample,5个类别各自的output
y = torch.randint(0, 5, (20,))  # 20个sample的真实标签,值为0-4。
class_weights=torch.Tensor(class_weight.compute_class_weight(class_weight='balanced',classes=np.unique(y),y=y.numpy()))

loss_func = nn.CrossEntropyLoss(weight=class_weights)
loss = loss_func(output, y)
# 自定义class weight(每个类占的百分比的倒数)
output = torch.randn(20, 5)  # 20个sample,5个类别各自的output
y = torch.randint(0, 5, (20,))  # 20个sample的真实标签,值为0-4。

weights = torch.Tensor(1/(np.bincount(y)/output.shape[0]))  # 每个类占的百分比的倒数
loss_func = nn.CrossEntropyLoss(weight=weights)
loss = loss_func(output,y)

⚠️注意:以上两种办法算出来的weights虽然不一样,但是算出的loss是一样的。
⚠️注意:class weight必须是tensor float32的形式,否则报错!!!!!


相关链接:

  1. doc
  2. 参考:https://androidkt.com/how-to-use-class-weight-in-crossentropyloss-for-an-imbalanced-dataset/
  3. 相关语法
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 218,451评论 6 506
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 93,172评论 3 394
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 164,782评论 0 354
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,709评论 1 294
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,733评论 6 392
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,578评论 1 305
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,320评论 3 418
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 39,241评论 0 276
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,686评论 1 314
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,878评论 3 336
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,992评论 1 348
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,715评论 5 346
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,336评论 3 330
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,912评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 33,040评论 1 270
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 48,173评论 3 370
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,947评论 2 355

推荐阅读更多精彩内容