联邦学习的激励机制:声誉与契约理论结合
一 多权重主观逻辑模型
1 主观逻辑模型
主观逻辑用于评估实体可信度。
每个评价由一个 意见(Opinion) 表示:
- 信任度 b
- 不信任度 d
- 不确定度 u
满足b+d+u=1,且b,d,u∈[0,1]
二 声誉意见表示
“A. Reputation Opinion Representation for Subjective Logic”
1 基于交互次数的表示
bi→jty=(1−ui→jty)αity+βityαity
di→jty=(1−ui→jty)αity+βityβity
ui→jty=1−qi→jty
其中:
- α:正交互次数
- β:负交互次数
- q:通信成功率
通信质量越差,u↑
2 直接信誉
任务发布者 i 对工作者 j 的直接信誉:
Ti→jty=bi→jty+aui→jty
其中,a∈[0,1]
3 交互效果评估
加入权重参数 κ 与 η:
bi→jty=καity+ηβityκqi→jtyαity
di→jty=καity+ηβityηqi→jtyβity
ui→jty=1−qi→jty
约束:
κ≤η
κ+η=1
目的是抑制负交互行为。
4 交互新鲜度
时间衰减权重:
θy=zY−y
其中:
- Y:时间槽数
- y:时间编号
- z:衰减因子
综合声誉:
bi→j=∑y=1Yy∑y=1Yθybi→jty
di→j=∑y=1Yy∑y=1Yθydi→jty
ui→j=∑y=1Yy∑y=1Yθyui→jty
近期交互:
权重更高。
三 推荐声誉
“B. Weighting Reputation Opinions From Recommenders”
推荐权重基于评价相似度。
相似度:
Sim(i,x)=∑(Di→j−Dˉi)2∑(Dx→j−Dˉx)2∑(Di→j−Dˉi)(Dx→j−Dˉx)
其中:
- Di→j:直接信誉
- Dˉi:平均信誉
推荐声誉
brecx→j=∑wi→x1∑wi→xbx→j
drecx→j=∑wi→x1∑wi→xdx→j
urecx→j=∑wi→x1∑wi→xux→j
权重:
wi→x=γi→x⋅Sim(i,x)
四 声誉融合
“C. Combining Direct Reputation Opinions With Recommended Reputation Opinions”
融合思想:
若推荐声誉不确定度高:
urec↑
则减少推荐声誉权重
若直接声誉不确定度高:
udir↑
则增加推荐声誉权重,实现多源声誉信息自适应融合。