24小时热门版块排行榜    

查看: 726  |  回复: 8
当前只显示满足指定条件的回帖,点击这里查看本话题的所有回帖

dailin513

禁虫 (小有名气)

本帖内容被屏蔽

已阅   关注TA 给TA发消息 送TA红花 TA的回帖

dailin513

禁虫 (小有名气)

本帖内容被屏蔽

3楼2014-09-28 17:26:11
已阅   关注TA 给TA发消息 送TA红花 TA的回帖
查看全部 9 个回答

yongcailiu

金虫 (小有名气)

【答案】应助回帖

★ ★ ★ ★ ★ ★ ★ ★ ★ ★ ★ ★ ★ ★ ★ ★ ★ ★ ★ ★
感谢参与,应助指数 +1
dailin513: 金币+20, ★★★★★最佳答案, 感谢 2014-09-29 15:15:51
就帖子的问题来说,收敛是针对(迭代)序列而言的。也就是说,首先得给出问题的详细描述,比如A满足的条件,然后还要给出相应的数值迭代算法,才能讨论迭代算法收敛性
2楼2014-09-28 16:45:07
已阅   关注TA 给TA发消息 送TA红花 TA的回帖

dailin513

禁虫 (小有名气)

本帖内容被屏蔽

4楼2014-09-28 17:27:21
已阅   关注TA 给TA发消息 送TA红花 TA的回帖

yongcailiu

金虫 (小有名气)

引用回帖:
3楼: Originally posted by dailin513 at 2014-09-28 17:26:11
帖子给出的是压缩感知中稀疏重构的一个模型,由于通常我们在使用l2范数处理误差项,即||y-A*x||_l2,但我在这里给出的是采用l1范数进行处理。当使用l2范数时,其收敛性通过迭代k+1和k次相减已经得到证明,现在要求 ...

就我的了解,这类问题都是对原问题和对偶问题讨论的,一般来说,这两个问题等价,所以只要证明迭代方法对其中一个收敛即可。而证明思路是类似的,要么考虑迭代变量的收敛性,要么考虑目标函数的迭代收敛性。详细的证明过程可以参见T. Goldstein 等的《fast alternating direction optimization methods》这篇文章。
5楼2014-09-29 08:24:44
已阅   关注TA 给TA发消息 送TA红花 TA的回帖
信息提示
请填处理意见