300days__generativeai
该存储库300days_generativeai专门致力于300天的持续学习,专注于生成AI,每天研究不同的书籍和研究论文。我将重新访问过去的学习,更新我的理解,并深入研究生成AI的复杂性。
| 不 | 书 | 地位 |
|---|
| 1 | 掌握Pytorch:创建和部署深度学习模型从CNN到多模式,LLM及其他地区(Ashish Ranjan Jha) | 正在进行 |
| 2 | 自然语言处理的转移学习(Paul Azunre) | |
| 3 | 建立大型语言模型(从头开始)(MEAP)(Sebastian Raschka) | 正在进行 |
| 4 | 使用Pytorch学习生成AI(Mark Liu) | |
| 5 | 生成AI的作用(MEAP V02)(Amit Bahree) | |
| 6 | 了解Langchain:制定未来派语言模型应用程序的综合指南(Jeffery Owens) | |
| 7 | 开发人员的大型语言模型安全剧本(史蒂夫·威尔逊) | |
| 不。 | 研究论文 | 话题 | 地位 |
|---|
| 1 | 一种新型的深Lenet-5卷积神经网络模型,用于图像识别 | Lenet-5 | ✅完成 |
| 2 | 卷积更深入 | Googlenet | ✅完成 |
300 daysofgenerativeai的第一天
- 在今天关于掌握Pytorch的会议中,我专注于深度学习的基本方面,尤其是通过“与Pytorch:60分钟的闪电战”教程的“深度学习”教程。我了解了神经网络体系结构,包括完全连接,卷积和经常性层,并探索了Pytorch的关键模块,例如Torch.Autograd用于自动差异化和用于构建网络的Torch.nn。我练习了前后传播,损失计算和梯度下降,最终是在简单的前馈神经网络的构建中。在即将举行的会议上,我的议程包括深入了解卷积神经网络(CNN)的力量,它们的建筑发展以及对Lenet,Alexnet,Alexnet,VGG,Googlenet,Inception V3,Resnet,Resnet,densenet和Entivicenet和Evelationnets等模型等模型的动手开发。
- 其他资源:
300 daysofgenerativeai的第2天
- 在今天关于掌握Pytorch的会议中,我进行了一次简短但富有成效的会议,以深入参与CNN体系结构。我探讨了为什么CNN对于图像分类和对象检测等任务如此有效,突出了它们的参数效率,自动特征提取和分层学习。我回顾了各种建筑创新,例如空间,深度,宽度和基于多路径的CNN。我还研究了Alexnet在Pytorch中的实现,重点是其层结构以及它如何利用辍学和激活功能。此外,我注意到Pytorch的火炬套件中的各种预定的CNN型号的可用性,包括Alexnet,VGG,Resnet等。
300 daysofgenerativeai的第3天
- 在今天关于掌握Pytorch的会话中,我为图像分类任务准备了一个数据集,为预训练的Alexnet模型实施了微调过程,并解决了在培训期间出现的确定性行为问题。我创建了数据加载程序,定义的助手功能用于可视化和模型进行微调,并修改了预训练模型的最后一层以匹配我数据集中的类数量。在微调过程中,我遇到了与使用
adaptive_avg_pool2d_backward_cuda操作有关的警告,该操作没有确定性的实现。为了解决这个问题,我了解了在Pytorch中启用确定性行为的不同方法,例如在有问题的操作中选择性地禁用warn_only=True ,或在确定性算法启用确定性的经验时,在应用深度学习技术时,可以使我更深入地了解图像分类问题。
300 dayofgenerativeai的第4天
- 在今天关于掌握Pytorch的会议中,我了解到,Googlenet(也称为Inception V1)是一个开创性的卷积神经网络架构,引入了Inception模块,该模块具有具有不同的螺旋式卷积层,具有不同的内核尺寸(1x1、3x3、5x3),可捕获多尺寸的特征。我发现1x1卷积对于降低维度至关重要,从而使模型可以通过降低特征图的深度而不改变空间维度来维持效率。此外,我了解到GoogleNet在输出层之前采用了全球平均池,以最大程度地减少参数并增强鲁棒性,以防止过度拟合。我对Inception V3的探索向我展示了它如何建立在原始设计的基础上,并具有更复杂的模块和其他层,从而改善了性能。总体而言,我现在对Googlenet和Inception V3中的创新技术有了更深入的了解,包括Inception模块,1x1卷积和全球平均池,它们在计算机视野领域都显着提高了。
300Daysofgenerativeai的第5天
- 在今天关于掌握Pytorch的会议中,我致力于实施Googlenet架构,重点是网络中多个启动模块的构建和集成。我完善了每个启动模块的参数,以正确反映预期的配置,其中包括调整卷积和池层以在各种尺度上有效提取特征。此外,我将初始卷积层与批处理归一化和恢复激活结合在一起,然后将最大池层层用于下采样。在制作模型时,我还考虑了辅助分类器的重要性,辅助分类器通常包含在Googlenet架构中,以通过提供中间监督来帮助减轻消失的梯度问题。这些分类器是主要分类器的较小版本,附加到早期层,它们提高了网络在训练过程中学习有意义的功能的能力。
300 dayofgenerativeai的第6天
- 在今天的会议中,我阅读了“图像识别的新型深Lenet-5卷积神经网络模型”,该模型提出了旨在提高图像识别能力的传统Lenet-5体系结构的增强版本。作者解决了常规机器学习和早期CNN模型的局限性,例如高硬件要求和缓慢的收敛速度。他们的新方法简化了网络结构,同时提高了训练速度并将激活函数修改为对数校正线性单元(L Relu)。 MNIST数据集的实验结果表明,改进的模型达到的识别率超过98%,显着超过其他最先进的算法,从而为图像识别技术的进步提供了宝贵的参考。
300 daysofgenerativeai的第7天
- 在今天的塞巴斯蒂安·拉斯卡卡(Sebastian Raschka)的“建立大型语言模型(从头开始)”的会议中,我深入研究了大语言模型(LLMS)及其构造的基础。我探索了包括编码器和解码器的变压器体系结构,强调了自我发项机制,该机制使模型能够专注于输入文本的不同部分。我检查了构建LLM的两个关键阶段:在大型的原始文本语料库上进行下一字预测,并在较小的标签数据集上进行针对特定任务的填充。此外,我了解了诸如GPT及其新兴行为之类的模型的生成能力,这些模型使他们能够执行各种任务,例如翻译和分类,即使没有针对这些任务的明确培训。