联邦学习的激励机制:声誉与契约理论结合

一 多权重主观逻辑模型

1 主观逻辑模型

主观逻辑用于评估实体可信度。

每个评价由一个 意见(Opinion) 表示:

  • 信任度 bb
  • 不信任度 dd
  • 不确定度 uu

满足b+d+u=1b + d + u = 1,且b,d,u[0,1]b,d,u \in [0,1]


二 声誉意见表示

“A. Reputation Opinion Representation for Subjective Logic”


1 基于交互次数的表示

bijty=(1uijty)αityαity+βityb_{i \rightarrow j}^{t_y} = (1-u_{i \rightarrow j}^{t_y}) \frac{\alpha_i^{t_y}} {\alpha_i^{t_y}+\beta_i^{t_y}} dijty=(1uijty)βityαity+βityd_{i \rightarrow j}^{t_y} = (1-u_{i \rightarrow j}^{t_y}) \frac{\beta_i^{t_y}} {\alpha_i^{t_y}+\beta_i^{t_y}} uijty=1qijtyu_{i \rightarrow j}^{t_y} = 1-q_{i \rightarrow j}^{t_y}

其中:

  • α\alpha:正交互次数
  • β\beta:负交互次数
  • qq:通信成功率

通信质量越差,uu \uparrow


2 直接信誉

任务发布者 ii 对工作者 jj 的直接信誉:

Tijty=bijty+auijtyT_{i \rightarrow j}^{t_y} = b_{i \rightarrow j}^{t_y} + a u_{i \rightarrow j}^{t_y}

其中,a[0,1]a \in [0,1]


3 交互效果评估

加入权重参数 κ\kappaη\eta

bijty=κqijtyαityκαity+ηβityb_{i \rightarrow j}^{t_y} = \frac{\kappa q_{i \rightarrow j}^{t_y}\alpha_i^{t_y}} {\kappa\alpha_i^{t_y}+\eta\beta_i^{t_y}} dijty=ηqijtyβityκαity+ηβityd_{i \rightarrow j}^{t_y} = \frac{\eta q_{i \rightarrow j}^{t_y}\beta_i^{t_y}} {\kappa\alpha_i^{t_y}+\eta\beta_i^{t_y}} uijty=1qijtyu_{i \rightarrow j}^{t_y} = 1-q_{i \rightarrow j}^{t_y}

约束:

κη\kappa \le \eta κ+η=1\kappa + \eta = 1

目的是抑制负交互行为


4 交互新鲜度

时间衰减权重:

θy=zYy\theta_y = z^{Y-y}

其中:

  • YY:时间槽数
  • yy:时间编号
  • zz:衰减因子

综合声誉:

bij=y=1Yθybijtyy=1Yyb_{i \rightarrow j} = \frac{\sum_{y=1}^{Y}\theta_y b_{i \rightarrow j}^{t_y}} {\sum_{y=1}^{Y} y} dij=y=1Yθydijtyy=1Yyd_{i \rightarrow j} = \frac{\sum_{y=1}^{Y}\theta_y d_{i \rightarrow j}^{t_y}} {\sum_{y=1}^{Y} y} uij=y=1Yθyuijtyy=1Yyu_{i \rightarrow j} = \frac{\sum_{y=1}^{Y}\theta_y u_{i \rightarrow j}^{t_y}} {\sum_{y=1}^{Y} y}

近期交互:

权重更高。


三 推荐声誉

“B. Weighting Reputation Opinions From Recommenders”

推荐权重基于评价相似度。

相似度:

Sim(i,x)=(DijDˉi)(DxjDˉx)(DijDˉi)2(DxjDˉx)2Sim(i,x)= \frac{ \sum (D_{i\rightarrow j}-\bar D_i)(D_{x\rightarrow j}-\bar D_x) }{ \sqrt{\sum (D_{i\rightarrow j}-\bar D_i)^2} \sqrt{\sum (D_{x\rightarrow j}-\bar D_x)^2} }

其中:

  • DijD_{i\rightarrow j}:直接信誉
  • Dˉi\bar D_i:平均信誉

推荐声誉

brecxj=1wixwixbxjb_{rec\,x\rightarrow j}= \frac{1}{\sum w_{i\rightarrow x}} \sum w_{i\rightarrow x} b_{x\rightarrow j} drecxj=1wixwixdxjd_{rec\,x\rightarrow j}= \frac{1}{\sum w_{i\rightarrow x}} \sum w_{i\rightarrow x} d_{x\rightarrow j} urecxj=1wixwixuxju_{rec\,x\rightarrow j}= \frac{1}{\sum w_{i\rightarrow x}} \sum w_{i\rightarrow x} u_{x\rightarrow j}

权重:

wix=γixSim(i,x)w_{i\rightarrow x} = \gamma_{i\rightarrow x} \cdot Sim(i,x)

四 声誉融合

“C. Combining Direct Reputation Opinions With Recommended Reputation Opinions”

融合思想:

若推荐声誉不确定度高:

urecu_{rec} \uparrow

减少推荐声誉权重

若直接声誉不确定度高:

udiru_{dir} \uparrow

增加推荐声誉权重,实现多源声誉信息自适应融合。