Day64_0121
专注时间:目标是:5h30~6h。实际:5h47min
每日任务:饭后的休息(25min),学习间歇的休息(15min)都用手表计时器来监督
{step1}40min=二刷1道力扣hot100+昨天的题再做一遍(如果是hard,只做一道就好,完成情况及时长:二刷昨日题目:15min,今日题目:32min);【学习资源:PyTorch官方文档:https://docs.pytorch.ac.cn/tutorials/beginner/basics/intro.html】1.5h=PyTorch工程实操(完成情况及时长:0。把第二个pytorch网页的“局部禁用梯度计算”看懂,就去看第一个pytorch网页);{step4}1h=周志华机器学习(完成情况及时长:0min);{setp3}1.5h+(claude的RL4LLM学习路径,时长:25+63+8min);{step2,学习《考试重点.pdf》8页并每日复习和1h学习时间都要满足。}1h=计算机网络复习[学习和背诵《考试重点.pdf》+1题历年考题,循环地做。不懂的可以看网课和问豆包](完成情况及时长:很多时间+已看完,明天复习该文件+做历年试卷);
学完机器学习,然后是深度学习。学完PyTorch,之后是Transformer与大模型架构(见Gemini3pro生成的阶段2)。学快一点。准备一个GitHub Repo把所有手撕过的算法整理进去,这会是最好的复习资料。
必须熟记的API、最简洁的GPT实现、带注释的Transformer实现、推荐系统模型库(包含主流模型实现)还有“Let's build GPT”系列学习视频见Claude的第20页。冰哥听讲座,老师说:GPT是最好的老师,不需要其他家教,清华学生智商120,GPT有140。多用大模型来帮助学习。
学习内容:如上
总结与心得:早上赖床5分钟,成功早起。从17号开始看计算机网络的考试重点.pdf,刚开始觉得难抽象记忆内容多,不过当时提醒自己万事开头难,最难的时候就是进步最快的时候,5天后终于是看完了,之后还要复习模式识别和做这两门课的试卷。最近入睡困难,应该是看手机看多了,睡前冥想会更容易入睡,并且发现专注数数也能马上入睡,今天把健身出发时间改到19.00,看看会不会好入睡。接触深度阅读之后(阅读公众号的文章),自己变得更专注了,很少会思绪不定地打乱手头的专注事。进入学习状态之后,到了休息时间都不会想刷抖音而是想继续学,所以还是要逼自己放下抖音去学习,进入状态之后就好了。今天抢课成功。中午早上的时间都没浪费,下午抖音多刷了25分钟(也就是一次一共刷了40分钟),得改。回宿舍刷了40分钟抖音游戏直播。今天还是比较充实的,以为专注时长会比较高,没想到也就还好,看来抖音拿走的时间还是很多的,明天改改。
《46.全排列》
class Solution(object): def permute(self, nums): """ :type nums: List[int] :rtype: List[List[int]] """ res = [] def backtrack(path,used): if len(path) == len(nums): #错在这里了,注意要用拷贝,不能直接append(path) #在Python中,列表是可变对象,如果直接append(path),那么实际上是将path的引用添加到结果列表res中。在后续的回溯过程中,path会被不断地修改(添加元素和弹出元素),那么之前添加到res中的path也会随之改变,因为它们是同一个对象。因此,我们需要在找到一个完整排列时,将当前path的副本(即一份独立的数据)添加到res中。这样即使后续path发生变化,已经添加到res中的副本也不会受到影响。具体来说,有两种常见方式创建副本:使用切片:path[:];使用copy方法:path.copy() res.append(path[:]) return for i in range(len(nums)): if used[i]: continue used[i]=True path.append(nums[i]) backtrack(path,used) used[i]=False path.pop() backtrack( [], [False]*len(nums) ) return res