【具身智能学习阶段性成果 - D51】随机漫步的动态环境中,不同常数步长下贪婪算法的表现对比
实验条件 环境:多臂老虎机(动态环境) 臂数 (K): 10 步数 (T): 10^5 每个臂的的奖励分布:X\sim\text{Bernoulli}(\theta_i)\\ \text{其中,}\theta_i=\frac{i}{K+1}\ ,(i\in\{1,2,3...,K\}) 环境随机漫步
实验条件 环境:多臂老虎机(动态环境) 臂数 (K): 10 步数 (T): 10^5 每个臂的的奖励分布:X\sim\text{Bernoulli}(\theta_i)\\ \text{其中,}\theta_i=\frac{i}{K+1}\ ,(i\in\{1,2,3...,K\}) 环境随机漫步
实验条件 环境:多臂老虎机 臂数 (K): 10 步数 (T): 10^5 每个臂的的奖励分布:X\sim\text{Bernoulli}(\theta_i)\\ \text{其中,}\theta_i=\frac{i}{K+1}\ ,(i\in\{1,2,3...,K\}) 算法:Greedy 表达
不同乐观初始化次数下的各贪婪算法的性能对比 实验条件 环境:50 臂伯努利分布多臂老虎机,每臂真实均值均平均分布于 (0,1) 步数:每次实验 10,000 步。 运行次数:50 次独立实验。 算法: 普通贪婪算法(Greedy) 固定 \epsilon-greedy 退火 \epsilon - g