300days_generativeai
이 저장소 인 300days_generativeai는 생성 AI에 중점을 둔 300 일의 지속적인 학습에 전념하며 매일 다른 책과 연구 논문을 연구합니다. 나는 과거의 학습을 다시 방문하고, 이해를 업데이트하며, 생성 AI의 복잡성에 대해 더 깊이 빠져 나옵니다.
| 아니요 | 책 | 상태 |
|---|
| 1 | Pytorch 마스터 링 : CNN에서 멀티 모달 모델, LLM 및 그 이후로 딥 러닝 모델을 생성 및 배포합니다 (Ashish Ranjan JHA) | 전진 |
| 2 | 자연어 처리를위한 전송 학습 (Paul Azunre) | |
| 3 | 대형 언어 모델 구축 (MEAP) (Sebastian Raschka) | 전진 |
| 4 | Pytorch (Mark Liu)로 생성 AI 학습 | |
| 5 | 생성 AI (Meap V02) (Amit Bahree) | |
| 6 | Langchain 이해 : 미래 언어 모델 응용 프로그램 제작에 대한 포괄적 인 안내서 (Jeffery Owens) | |
| 7 | 대형 언어 모델 보안을위한 개발자의 플레이 북 (Steve Wilson) | |
| 아니요. | 연구 논문 | 주제 | 상태 |
|---|
| 1 | 이미지 인식을위한 소설 Deep Lenet-5 Convolutional Neural Network 모델 | 레넷 -5 | ✅ 완료되었습니다 |
| 2 | 컨볼 루션으로 더 깊어지고 있습니다 | googlenet | ✅ 완료되었습니다 |
300daysofgenerativeai의 1 일
- 오늘 Pytorch 마스터에 관한 세션에서 저는 특히 "Pytorch와의 딥 러닝 : 60 분 블리츠"튜토리얼을 통해 딥 러닝의 기본 측면에 중점을 두었습니다. 나는 완전히 연결, 컨볼 루션 및 반복 레이어를 포함한 신경망 아키텍처에 대해 배웠으며 Torch.autograd와 같은 Pytorch의 주요 모듈 및 네트워크 구축 용 Torch.nn을 탐색했습니다. 나는 간단한 피드 포워드 신경 네트워크의 구성에 절정에 이르렀다. 다가오는 세션에서, 나의 의제에는 CNN (Convolutional Neural Networks)의 힘에 대한 깊은 다이빙, 건축 진화 및 Lenet, Alexnet, VGG, Googlenet, Inception V3, Resnet, Densenet 및 Expicationnets와 같은 모델의 실습 개발이 포함되어 있습니다.
- 추가 자원 :
- Pytorch와의 딥 러닝 : 60 분 블리츠
300daysofgenerativeai의 2 일
- Pytorch 마스터 링에 관한 오늘의 세션에서, 나는 깊은 CNN 아키텍처로 간단하지만 생산적인 세션을 가지고 있습니다. 왜 CNN이 이미지 분류 및 객체 감지와 같은 작업에 효과적인 이유를 살펴보고, 매개 변수 효율성, 자동 기능 추출 및 계층 학습을 강조합니다. 나는 공간, 깊이, 너비 및 다중 경로 기반 CNN과 같은 다양한 건축 혁신을 검토했습니다. 또한 Pytorch에서 Alexnet의 구현을 조사하여 레이어 구조와 DROCKIT 및 활성화 기능을 활용하는 방법에 중점을 두었습니다. 또한 Alexnet, VGG, Resnet 등을 포함한 Pytorch의 Torchvision 패키지에서 다양한 사전 정의 된 CNN 모델의 가용성을 언급했습니다.
300daysofgenerativeai의 3 일
- Pytorch 마스터 링에 관한 오늘의 세션에서 이미지 분류 작업을위한 데이터 세트를 준비하고 미리 훈련 된 Alexnet 모델에 대한 미세 조정 프로세스를 구현했으며 훈련 중에 발생한 결정 론적 행동 문제를 해결했습니다. 데이터 로더를 만들고 시각화 및 모델 미세 조정을 위해 정의 된 도우미 기능을 작성하고 데이터 세트의 클래스 수와 일치하도록 미리 훈련 된 모델의 최종 계층을 수정했습니다. 미세 조정 프로세스 동안, 나는 결정 론적 구현이없는
adaptive_avg_pool2d_backward_cuda 작동과 관련된 경고를 받았다. 이를 해결하기 위해, 나는 문제가 발생하기위한 결정론을 선택적으로 비활성화하거나 결정 론적 알고리즘을 활성화 할 때 warn_only=True 옵션을 사용하는 등 Pytorch에서 결정 론적 행동을 가능하게하기위한 다양한 접근법에 대해 배웠습니다.
300daysofgenerativeai의 4 일
- Pytorch 마스터 마스터에 관한 오늘의 세션에서, 나는 Inception v1이라고도하는 Googlenet이 획기적인 컨볼 루션 신경 네트워크 아키텍처라는 사실을 알게되었습니다.이 컨벤션 모듈을 도입 한 획기적인 컨볼 루션 신경망 아키텍처는 다중 스케일 기능을 포착하기 위해 다양한 커널 크기 (1x1, 3x3, 5x5)를 갖는 평행 컨볼 루션 레이어를 특징으로합니다. 나는 1x1 컨볼 루션이 치수 감소에 중요하다는 것을 발견하여 공간 치수를 변경하지 않고도 기능 맵의 깊이를 줄임으로써 모델이 효율성을 유지할 수 있음을 발견했습니다. 또한 Googlenet은 출력 계층 앞에 글로벌 평균 풀링을 사용하여 매개 변수를 최소화하고 과인에 대한 견고성을 향상 시킨다는 것을 알게되었습니다. Inception v3에 대한 나의 탐색은 더 복잡한 모듈과 추가 레이어를 사용하여 원래 디자인을 구축하는 방법을 보여 주어 성능이 향상되었습니다. 전반적으로, 나는 이제 Googlenet 및 Inception V3의 혁신적인 기술에 대해 더 깊이 이해하고 있으며, Inception 모듈, 1x1 컨볼 루션 및 글로벌 평균 풀링을 포함하여 컴퓨터 비전 분야를 크게 발전 시켰습니다.
300daysofgenerativeai의 5 일
- 오늘 Pytorch 마스터 링에 관한 세션에서 저는 Googlenet 아키텍처 구현으로 네트워크 내의 여러 Inception 모듈의 구성 및 통합에 중점을 두었습니다. 각 Inception 모듈의 매개 변수를 개선하여 의도 된 구성을 올바르게 반영하는데, 여기에는 다양한 스케일에서 기능을 효율적으로 추출하기 위해 컨볼 루션 및 풀링 레이어 조정을 포함했습니다. 또한, 초기 컨볼 루션 층을 배치 정규화 및 재 활성화와 함께 통합 한 다음 다운 샘플링을위한 최대 풀링 층을 통합했습니다. 모델에서 작업하는 동안, 나는 또한 보조 분류기의 중요성을 고려하여 일반적으로 Googlenet 아키텍처에 포함되어 중간 감독을 제공함으로써 소실 된 그라디언트 문제를 완화하는 데 도움이됩니다. 이 분류기는 이전 레이어에 첨부 된 메인 분류기의 작은 버전이며 교육 중에 의미있는 기능을 배우는 네트워크의 능력을 향상시킵니다.
300daysofgenerativeai의 6 일
- 오늘의 세션에서 나는 이미지 인식 기능 향상을 목표로하는 전통적인 Lenet-5 아키텍처의 향상된 버전을 제안하는 "이미지 인식을위한 소설 Deep Lenet-5 Convolutional Neural Network Model"을 읽었습니다. 저자는 기존의 머신 러닝 및 초기 CNN 모델 (예 : 높은 하드웨어 요구 사항 및 느린 수렴 속도)의 한계를 다룹니다. 그들의 새로운 접근법은 네트워크 구조를 단순화하면서 훈련 속도를 향상시키고 활성화 기능을 로그 정류 선형 유닛 (L Relu)으로 수정합니다. MNIST 데이터 세트의 실험 결과는 개선 된 모델이 98%를 초과하는 인식 속도를 달성하여 다른 최첨단 알고리즘보다 훨씬 성능이 우수함으로써 이미지 인식 기술의 발전에 대한 귀중한 참조를 제공한다는 것을 보여줍니다.
300daysofgenerativeai의 7 일
- Sebastian Raschka의 "큰 언어 모델 구축 (처음부터)에 대한 오늘의 세션에서, 나는 LLM (Lange Language Model)의 기본 사항과 그 구성을 탐구했습니다. 인코더와 디코더를 모두 포함하는 변압기 아키텍처를 탐색하여 모델이 입력 텍스트의 다른 부분에 집중할 수있는 자체 변환 메커니즘을 강조했습니다. LLM을 구축하는 데있어 두 가지 주요 단계를 검토했습니다 : 차세대 예측을 위해 크고 원시 텍스트 코포라의 사전 조정 및 특정 작업을위한 더 작은 레이블이 붙은 데이터 세트에 대한 미세 조정. 또한 GPT와 같은 모델의 생성 기능 및 출현 동작에 대해 배웠으며, 이는 해당 작업에 대한 명시적인 교육 없이도 번역 및 분류와 같은 다양한 작업을 수행 할 수 있습니다.