| 选课类别:专业任务 | 教学语言:英文 |
| 课程类别:专业选修课 | 开课单位:计算机科学与工程系 |
| 课程层次:本科 | 获得学分:3.0 |
涵盖了nlp的大部分基本领域,前小半个学期在讲传统nlp的技术(前transformers时代),之后就包括了transformers+LLM的内容,对于小白入门还是可以的。lab课是关于lecture的practice,难度不大,会给详细的notebook参考。lecture签到5分,lab签到5分 + practice 10分。
总共有6次Assignment(这学期最后因为内容取消了第6次)总共占55分。相关的lab和作业的参考notebook中也有代码框架。个别难度会高一些,整体难度不大。
Project占比25分,完全参考Standford CS224n: https://web.stanford.edu/class/archive/cs/cs224n/cs224n.1244/ 具体是给定代码基础上实现一个BERT + finetuned on 3 downstream multitasks。基本的实现不难,想提升performance需要自己花心思。另外还可以有customized project,需要自己选择一个topic,和老师确认一下。
没有期末考试。
一个小广告,课程内容可以参考: https://github.com/Cooper-Zhong/CS310-Natural-Language-Processing,project部分可以参考 https://github.com/Cooper-Zhong/CS310-project-minbert。
总体上,这是一门现代的自然语言处理入门课程,涵盖了基础 NLP 知识、基础深度学习知识、现代 RNN 类和 Transformer 类模型和其训练微调做法。徐炀老师讲课很认真,实验课的材料也都是自己准备。
课程难度上,内容循序渐进,作业梯度设置合理,实验课也不太浪费时间。
课程分数上,不设置考试,作业占据55%,Project占据25%,其余未签到分,对考试苦手(比如我)比较友好。
课程项目上给分较为严苛。2025 春的 Project 为训练一个检测 AI 生成文本的模型,并测试零样本的方法比较性能,2-3人完成。基本做法就是用 BERT 类模型进行下游任务的微调,效果接近于原始数据集中的数据。但是似乎 Project 的给分比较严格(毕竟没有考试也就这个能扣点分),没有明确的评分细则,暂且不知道是按什么标准打分的,感觉做的还挺完整的也只给了及格线的分数,询问了周围一些同学得分也差不多,似乎与往年略微不同。
总之,推荐选修的。
老师很好讲的也很清晰,project占比不大给分也很好。这个课主要还是平时作业弄好分就不会低,平时作业都按要求做也就总评扣个一两分,加上project扣个几分,而且这个课程也确实能学到一些东西