머신 러닝 읽기 목록을 이끌어냅니다
목적
이 커리큘럼의 목적은 새로운 유도 직원이 언어 모델에 중점을 둔 기계 학습에 대한 배경을 배우도록 돕는 것입니다. 생산에서 ML을 배치하는 데 관련된 논문과 장기 확장성에 중요한 기술 사이의 균형을 잡으려고 노력했습니다.
ELISIC에서 아직 일하지 않으면 ML 및 소프트웨어 엔지니어를 고용하고 있습니다.
읽는 방법
권장 읽기 주문 :
- 모든 주제에 대해서는 "Tier 1"을 읽으십시오
- 모든 주제에 대해서는 "Tier 2"를 읽으십시오
- 등
2024/4/1 이후에 추가되었습니다
목차
- 기본
- 기계 학습 소개
- 변압기
- 주요 기초 모델 아키텍처
- 훈련 및 미세 조정
- 추론 및 런타임 전략
- 텍스트 내 추론
- 작업 분해
- 토론
- 도구 사용 및 비계
- 정직, 사실 성 및 인식
- 응용 프로그램
- 실제로 ML
- 고급 주제
- 세계 모델과 인과 관계
- 계획
- 불확실성, 교정 및 적극적인 학습
- 해석 가능성 및 모델 편집
- 강화 학습
- 큰 그림
- AI 스케일링
- AI 안전
- 경제적, 사회적 영향
- 철학
- 관리자
기본
기계 학습 소개
1 단계
- 기계 학습에 대한 짧은 소개
- 그러나 신경망은 무엇입니까?
- 그라디언트 하강, 신경망이 배우는 방법
2 단계
- 역전에 대한 직관적 인 이해
- 역전술은 실제로 무엇을하고 있습니까?
- 깊은 강화 학습에 대한 소개
3 단계
- 신경망 및 역전술에 대한 철자 소개 : MicroGrad 빌딩
- 역전 미적분학
변압기
1 단계
- 그러나 GPT는 무엇입니까? 트랜스포머에 대한 시각적 소개
- 트랜스포머의주의, 시각적으로 설명
- 주목? 주목!
- 일러스트 변압기
- 그림 GPT-2 (변압기 언어 모델 시각화)
2 단계
- GPT 토큰 화기를 만들어 봅시다
- 공동으로 조정하고 번역하는 법을 배우는 신경 기계 번역
- 주석이 달린 변압기
- 주의를 기울이기 만하면됩니다
3 단계
- 더 빠르고 가벼운 변압기에 대한 실질적인 조사
- TABPFN : 두 번째로 작은 테이블 분류 문제를 해결하는 변압기
- Grokking : 소규모 알고리즘 데이터 세트에 대한 과적으로 일반화
- 변압기 회로를위한 수학적 프레임 워크
계층 4+
- 자가 회귀 변압기의 구성 기능 : 합성, 해석 가능한 작업에 대한 연구
- 트랜스포머를 암기합니다
- 변압기 피드 포워드 레이어는 핵심 값 메모리입니다
주요 기초 모델 아키텍처
1 단계
- 언어 모델은 감독되지 않은 멀티 태스킹 학습자 (GPT-2)입니다.
- 언어 모델은 소수의 학습자입니다 (GPT-3)
2 단계
- 라마 : 개방적이고 효율적인 기초 언어 모델 (LLAMA)
- 구조화 된 상태 공간으로 긴 시퀀스를 효율적으로 모델링 (비디오) (S4)
- 통합 텍스트-텍스트 변압기 (T5)로 전송 학습의 한계 탐색
- 코드에서 훈련 된 대형 언어 모델 평가 (OpenAi Codex)
- 인간 피드백으로 지침을 따르는 언어 모델 교육 (OpenAI Instruct)
3 단계
- Mistral 7B (Mistral)
- 전문가의 Mixtral (Mixtral)
- GEMINI : 유능한 멀티 모달 모델 (gemini) 가족
- Mamba : 선택적 상태 공간을 가진 선형 시간 시퀀스 모델링 (Mamba)
- 스케일링 명령-결제 언어 모델 (FLAN)
계층 4+
- 일관성 모델
- 클로드 모델에 대한 모델 카드 및 평가 (클로드 2)
- Olmo : 언어 모델의 과학을 가속화합니다
- Palm 2 기술 보고서 (Palm 2)
- 교과서는 모두 필요합니다 II : PHI-1.5 기술 보고서 (PHI 1.5)
- 시각적 지침 튜닝 (llava)
- 정렬 실험실로서 일반 언어 보조원
- Finetuned Language 모델은 제로 샷 학습자입니다 (Google instruct)
- Galactica : 과학을위한 큰 언어 모델
- Lamda : 대화 상자 응용 프로그램을위한 언어 모델 (Google 대화 상자)
- OPT : 사전 훈련 된 변압기 언어 모델 오픈 (Meta GPT-3)
- Palm : Pathways (Palm)로 언어 모델링 스케일링
- 대형 언어 모델을 사용한 프로그램 합성 (Google Codex)
- 언어 모델 스케일링 : 교육 Gopher (Gopher)의 방법, 분석 및 통찰력
- 언어 모델의 정량적 추론 문제 해결 (Minerva)
- UL2 : 언어 학습 패러다임 통일 (UL2)
훈련 및 미세 조정
2 단계
- 텐서 프로그램 V : Zero-Shot 하이퍼 파라미터 전송을 통해 대형 신경망을 조정합니다.
- 인간의 피드백으로 요약하는 법을 배웁니다
- 수학 단어 문제를 해결하기위한 검증 자
3 단계
- 인간의 선호도를 가진 사전 연상 언어 모델
- 약한 일반화 : 약한 감독으로 강력한 능력을 이끌어냅니다
- 소수의 매개 변수 효율적인 미세 조정은 텍스트 내 학습보다 더 좋고 저렴합니다.
- LORA : 대형 언어 모델의 낮은 순위 적응
- 생성 언어 모델만으로 감독되지 않은 신경 기계 번역
계층 4+
- 인적 데이터를 넘어서 : 언어 모델로 문제 해결을위한 자체 훈련 스케일링
- 자연어 피드백으로 교육을 통해 코드 생성 개선
- 언어 모델링은 압축입니다
- 리마 : 정렬에 대한 것이 적습니다
- 요점 토큰으로 프롬프트를 압축하는 법을 배웁니다
- 중간 손실 : 언어 모델이 긴 상황을 사용하는 방법
- Qlora : 양자화 된 LLM의 효율적인 양조
- 조용한 별 : 언어 모델은 말하기 전에 생각하도록 가르 칠 수 있습니다.
- 언어 모델링을위한 강화 된 자기 훈련 (REST)
- 인간 시연없이 Olympiad Geometry를 해결합니다
- 말하기, 표시하지 마십시오 : 선언적 사실은 LLM이 어떻게 일반화되는지에 영향을 미칩니다
- 교과서 만 있으면됩니다
- Tinystories : 언어 모델은 얼마나 작은 일이며 여전히 일관된 영어를 말할 수 있습니까?
- 언어 피드백이 규모로 언어 모델을 훈련합니다
- 완전한 변압기 : 두 개의 변압기가 하나보다 강력합니다.
- BYT5 : 미리 훈련 된 바이트-바이트 모델을 갖춘 토큰이없는 미래를 향해
- 데이터 분포 속성은 트랜스포머에서 출현하는 컨텍스트 학습을 유도합니다
- 확산 LM은 제어 가능한 텍스트 생성을 향상시킵니다
- Ernie 3.0 : 언어 이해 및 세대를위한 대규모 지식 향상 사전 훈련 향상
- 중간을 채우기위한 언어 모델의 효율적인 교육
- Ext5 : 전송 학습을위한 극단적 인 멀티 태스킹 스케일링을 향해
- 접두사 조정 : 세대를위한 연속 프롬프트 최적화
- 데이터 포인트 간의 자체 변환 : 딥 러닝에서 개별 입력 출력 쌍을 넘어서
- 프롬프트와의 진정한 소수의 학습-실제 관점
추론 및 런타임 전략
텍스트 내 추론
2 단계
- 큰 언어 모델에서 추론을 유발하는 사고의 사슬
- 큰 언어 모델은 제로 샷 추론입니다 (단계별로 생각합시다)
- 자기 일관성은 언어 모델에서 사고 추론의 사슬을 향상시킵니다
3 단계
- 프롬프트없이 생각한 추론
- 왜 단계별로 생각합니까? 추론은 경험의 지역에서 나옵니다
계층 4+
- BALDUR : 대형 언어 모델로 전체 방지 생성 및 수리
- 바이어스-구제 일관성 훈련은 생각의 사슬에서 편향된 추론을 줄입니다
- 언어 모델을 통한 인증 된 추론
- 가설 검색 : 언어 모델을 사용한 유도성 추론
- LLM 및 추상화 및 추론 코퍼스 : 성공, 실패 및 객체 기반 표현의 중요성
- 대형 언어 모델은 아직 자기 대상 추론을 할 수 없습니다
- 검색 흐름 (SOS) : 언어로 검색하는 법을 배우십시오
- 잠재적 변수 추론을 통한 사슬의 훈련
- 시연의 역할 재고 : 텍스트 내 학습이 효과가있는 것은 무엇입니까?
- Surface Form Competition : 최고 확률 답변이 항상 옳지 않은 이유
작업 분해
1 단계
- 결과가 아닌 과정을 감독합니다
- 약한 전문가를 증폭시켜 강력한 학습자를 감독합니다
2 단계
- 사고의 나무 : 큰 언어 모델로 고의적 인 문제 해결
- 사실 인식
- 반복 된 증류 및 증폭
- 인간의 피드백으로 책을 재귀 적으로 요약합니다
- 프로세스 기반 및 결과 기반 피드백으로 수학 단어 문제를 해결합니다
3 단계
- 사실 검증 : 학술 논문의 요약에서 환각 감지 및 감소
- 큰 언어 모델을 사용한 충실한 추론
- 인간 컨설팅 HC
- 반복 분해 : 추론 과정을 감독하여 과학 Q & A 향상
- 언어 모델 캐스케이드
계층 4+
- 오염 텍스트 화 : 문장을 독립형으로 만듭니다
- 인식 입문서
- 생각의 그래프 : 대형 언어 모델로 정교한 문제 해결
- Parsel : 알고리즘 추론을위한 통일 된 자연 언어 프레임 워크
- AI 사슬 : 대형 언어 모델 프롬프트를 체인하여 투명하고 제어 가능한 인간 -AI 상호 작용
- 큰 벤치 작업에 도전하고 생각한 사슬이이를 해결할 수 있는지 여부
- 논쟁을 한 번에 한 단계 씩 평가합니다
- 가장 큰 프롬프트는 대형 언어 모델에서 복잡한 추론을 가능하게합니다
- Maieutic Prompting : 재귀적인 설명을 가진 논리적으로 일관된 추론
- 언어 모델에서 구성 성 격차를 측정하고 좁히는 것
- PAL : 프로그램 보조 언어 모델
- 반응 : 언어 모델에서 시너지 효과와 행동
- 선택 주도 : 해석 가능한 논리적 추론을위한 대형 언어 모델 악용
- 작업 표시 : 언어 모델로 중간 계산을위한 스크래치 패드
- Summ^N : 긴 입력 대화 및 문서에 대한 다단계 요약 프레임 워크
- Thinksum : 대형 언어 모델을 사용한 세트에 대한 확률 적 추론
토론
2 단계
3 단계
- 토론은 신뢰할 수없는 전문가를 감독하는 데 도움이됩니다
- 두 회전 토론은 인간이 어려운 독해 질문에 대답하는 데 도움이되지 않습니다.
계층 4+
- 이중 효율적인 토론을 통한 확장 가능한 AI 안전
- 다기관 토론을 통해 언어 모델의 사실과 추론 개선
도구 사용 및 비계
2 단계
- 훈련 후 향상의 영향 측정
- WebGpt : 인간의 피드백을 가진 브라우저 지원 질문-응답
3 단계
- 비싼 재교육없이 AI 기능을 크게 향상시킬 수 있습니다
- 언어 모델을 통한 자동 통계 모델 발견
계층 4+
- DSPY : 선언적 언어 모델을 자체 개선 파이프 라인으로 컴파일합니다
- Promptbreeder : 신속한 진화를 통한 자기 참조 자기 개선
- 자체 지어 옵티마이저 (정지) : 재귀 적으로 자체 개선 코드 생성
- Voyager : 대형 언어 모델을 가진 개방형 구현제
- Regal : 일반화 가능한 추상화를 발견하기위한 리팩토링 프로그램
정직, 사실 성 및 인식
2 단계
3 단계
- 언어 모델은 설득력있는 것을 발견합니까?
- AI 거짓말 쟁이 잡기 방법 : 관련없는 질문을하여 블랙 박스 LLM의 거짓말 탐지
계층 4+
- 언어 모델은 항상 자신의 생각을 말하는 것은 아닙니다.
- 대형 언어 모델에서 장기적인 사실
응용 프로그램
과학
3 단계
- 대형 언어 모델이 연구 논문에 대한 유용한 피드백을 제공 할 수 있습니까? 대규모 경험적 분석
- 큰 언어 모델은 임상 지식을 인코딩합니다
- 과학적 발견에 대한 대형 언어 모델의 영향 : GPT-4를 이용한 예비 연구
- 연구 논문에 고정 된 정보를 찾는 질문 및 답변 데이터 세트
계층 4+
- 일반 재단 모델은 특수 목적 조정을 능가 할 수 있습니까? 의학 사례 연구
- Nougat : 학업 문서에 대한 신경 광학 이해
- SCIM : 과학 논문에 대한 지능적인 스키밍 지원
- SynerGpt : 개인화 된 약물 시너지 예측 및 약물 설계에 대한 텍스트 내 학습
- 큰 언어 모델로 정확한 차별 진단을 향해
- 인간과 기계에 대한 과학적 이해를위한 벤치 마크로
- 과학적 도전과 방향의 발견을위한 검색 엔진
- 자동화 도구 : 사례 연구를 사용하여 2 주 안에 완전한 체계적인 검토가 완료되었습니다.
- 사실 또는 소설 : 과학적 주장 검증
- Multi-Xscience : 과학 기사의 극단적 인 멀티 문서 요약을위한 대규모 데이터 세트
- 피어 : 공동 언어 모델
- PubMedqa : 생의학 연구 질문 답변을위한 데이터 세트
- Scico : 과학적 개념에 대한 계층 적 교차 문서적 코퍼레이션
- Scitail : 과학 질문 답변의 텍스트 수입 데이터 세트
예측
3 단계
- AI-AUGMENTED PREDICTIONS : LLM 보조원은 인간 예측 정확도를 향상시킵니다
- 언어 모델로 인간 수준의 예측에 접근합니다
- 트랜스포머는 시계열 예측에 효과적입니까?
- 신경망으로 미래의 세계 사건을 예측합니다
검색 및 순위
2 단계
- 규모에 따라 문구의 조밀 한 표현을 학습합니다
- 대조적 인 사전 훈련에 의한 텍스트 및 코드 임베딩 (OpenAi 임베딩)
3 단계
- 대형 언어 모델
- 모든 벡터 데이터베이스가 동일하지는 않습니다
- 영역 : 검색된 언어 모델 사전 훈련
- 지식 집약적 인 NLP 작업을위한 검색 세대
- 지침으로 작업 인식 검색
계층 4+
- RANKZEPHYR : 효과적이고 강력한 제로 샷리스트 와이드 리랑 스는 산들 바람입니다!
- IR 평가에서 몇 가지 일반적인 실수와 피할 수있는 방법
- 대화식 에이전트를 사용한 검색 엔진 향상
- Colbert : Bert에 대한 상황에 맞는 늦은 상호 작용을 통한 효율적이고 효과적인 통과 검색
- 정보 검색 벤치마킹을 위해 다운 스트림 작업 정확도를 넘어서
- UnifiedQA : 단일 QA 시스템과의 교차 형식 경계
실제로 ML
생산 배포
1 단계
- Python의 머신 러닝 : 데이터 과학, 기계 학습 및 AI의 주요 개발 및 기술 동향
- 기계 학습 : 기술 부채의 높은이자 신용 카드
2 단계
- 데이터 집약적 인 응용 프로그램 설계
- 신경망을 훈련하기위한 레시피
벤치 마크
2 단계
- GPQA : 대학원 수준 Google-Proof Q & A 벤치 마크
- Swe-Bench : 언어 모델이 실제 Github 문제를 해결할 수 있습니까?
- Pruthfulqa : 모델이 인간의 허위를 모방하는 방법을 측정합니다
3 단계
- Flex : 소수의 NLP에 대한 통일 평가
- 언어 모델의 전체적인 평가 (Helm)
- 대규모 멀티 태스킹 언어 이해 측정
- 래프트 : 실제 몇 가지 샷 텍스트 분류 벤치 마크
- 언어 모델로 진정한 소수의 학습
계층 4+
- GAIA : AI 보조원을위한 벤치 마크
- 조건부 : 조건부 답변이있는 복잡한 읽기 이해 데이터 세트
- 수학 데이터 세트로 수학적 문제 해결 측정
- 품질 : 긴 입력 텍스트로 답변하는 질문, 예!
- 스크롤 : 긴 언어 시퀀스에 대한 표준화 된 비교
- 자연어 이해의 벤치마킹을 수정하려면 무엇이 필요합니까?
데이터 세트
2 단계
- 일반적인 크롤링
- 더미 : 언어 모델링을위한 다양한 텍스트의 800GB 데이터 세트
3 단계
- 대화 상자 : 문서를 대화 상자로 전환합니다
- MS Marco : 인간 생성 기계 판독 포괄적 인 데이터 세트
- Microsoft Academic Graph
- TLDR9+: 소셜 미디어 게시물의 극단적 인 요약을위한 대규모 리소스
고급 주제
세계 모델과 인과 관계
3 단계
- 출현 세계 표현 : 합성 작업에 대한 훈련 된 시퀀스 모델 탐색
- 단어 모델에서 세계 모델까지 : 자연어에서 확률 적 사고 언어로 번역
- 언어 모델은 공간과 시간을 나타냅니다
계층 4+
- 대형 언어 모델에서 다루기 힘든 추론을 상각합니다
- Cladder : 언어 모델에서 인과 추론 평가
- 인과 적 베이지안 최적화
- 인과 추론 및 대규모 언어 모델 : 인과 관계를위한 새로운 국경 개방
- 생성제 : 인간 행동의 대화식 시뮬 라 크라
- 에이전트 및 언어 모델에서 활발한 인과 전략의 수동 학습
계획
계층 4+
- 너머 : 검색 역학 부트 스트랩을 통한 변압기로 더 나은 계획
- 언어 에이전트의인지 구조
불확실성, 교정 및 적극적인 학습
2 단계
- 전문가는 속임수를 쓰지 않습니다 : 쌍을 예측하여 모르는 것을 배우십시오.
- 딥 러닝에서 베이지안 불확실성을위한 간단한 기준
- PLEX : 사방 된 대형 모델 확장을 사용한 신뢰성을 향해
3 단계
- 언어 모델과 확률 적 추론을 사용한 적극적인 선호 추론
- 언어 모델로 인간 선호도를 이끌어냅니다
- 대조적 인 사례를 습득하여 적극적인 학습
- 자연어로 텍스트 분포의 차이점을 설명합니다
- 불확실성을 말로 표현하는 모델을 가르치십시오
계층 4+
- 자연어 및 확률 론적 추론으로 실험 및 규칙 수정
- 스타 게이트 : 명확한 질문을하는 언어 모델을 가르치십시오
- 활성 테스트 : 샘플 효율적인 모델 평가
- 언어 보상 모델에 대한 불확실성 추정
해석 가능성 및 모델 편집
2 단계
- 감독없이 언어 모델에 대한 잠복 지식을 발견합니다
3 단계
- 규모의 해석 가능성 : 알파카에서 인과 메커니즘 식별
- 절차 적으로 정의 된 작업에 미세 조정의 효과를 기계적으로 분석
- 표현 엔지니어링 : AI 투명성에 대한 하향식 접근
- 영향 기능을 가진 큰 언어 모델 일반화 연구
- 야생의 해석 가능성 : GPT-2 Small에서 간접 물체 식별을위한 회로
계층 4+
- 코드북 기능 : 신경 네트워크의 희소 및 개별 해석 가능성
- 조정 된 렌즈와 변압기의 잠재 예측을 유도합니다
- 언어 모델은 상황에서 엔티티를 어떻게 바인딩합니까?
- AI 블랙 박스 열기 : 기계적 해석 가능성을 통한 프로그램 합성
- 스파 스 피처 회로 : 언어 모델에서 해석 가능한 인과 적 그래프 발견 및 편집
- 변압기에서 Mesa-Optomization 알고리즘을 발견합니다
- 빠른 모델 편집
- git Re-Basin : 병합 모델 모듈로 순열 대칭
- GPT에서 사실 연관성 찾기 및 편집
- 변압기의 질량 편집 메모리
강화 학습
2 단계
- 직접 선호도 최적화 : 언어 모델은 비밀리에 보상 모델입니다.
- 반사 : 언어 강화 학습을 가진 언어 에이전트
- 일반적인 강화 학습 알고리즘 (Alphazero)과 함께 자기 놀이로 체스와 쇼기 마스터
- Muzero : 학습 된 모델로 계획하여 Atari, Go, Chess 및 Shogi 마스터
3 단계
- 인간 피드백으로부터 강화 학습의 개방 문제 및 근본적인 한계
- Alphastar : 실시간 전략 게임 마스터 링 스타 크래프트 II
- 의사 결정 변압기
- 데이터가 제한된 Atari 게임 마스터 링 (Engicationzero)
- 마스터 링 전략, 불완전한 정보의 고전적인 게임 (DeepNash)
계층 4+
- Alphastar Unplugged : 대규모 오프라인 강화 학습
- 인지 부하가 제한된 베이지안 강화 학습
- 대조적 인 선식 학습 : RL없이 인간의 피드백을 배우는 학습
- 검색없이 그랜드 마스터 레벨 체스
- 컴퓨터를 제어하는 학습을위한 데이터 중심의 접근 방식
- Alphazero에서의 체스 지식 획득
- 게임 플레이어
- 검색된 강화 강화 학습
큰 그림
AI 스케일링
1 단계
- 신경 언어 모델의 스케일링 법률
- 이륙 속도
- 쓴 교훈
2 단계
- AI 및 계산
- 전송을위한 스케일링 법률
- 훈련 컴퓨팅 최적의 대형 언어 모델 (Chinchilla)
3 단계
- 큰 언어 모델의 출현 능력
- 0.1% 추가 컴퓨팅 (U-PALM)을 가진 스케일링 법률 초과
계층 4+
- 언어 모델의 물리학 : 3.3 부, 지식 용량 스케일링 법칙
- 스피드 러닝 및 머신 러닝의 전력 법 동향
- 단일 에이전트 강화 학습을위한 법률
- 신경 스케일링 법률 이외 : 데이터 가지 치기를 통한 전력법 스케일링 박동
- 큰 언어 모델의 출현 능력
- 보드 게임으로 스케일링 법률을 스케일링합니다
AI 안전
1 단계
- 기계 인텔리전스의 세 가지 영향
- 실패는 어떻게 생겼는지
- 구체적인 대책이 없으면 변형 AI의 가장 쉬운 경로는 AI 인수로 이어질 수 있습니다.
2 단계
- 치명적인 AI 위험에 대한 개요
- “실패가 어떻게 보이는지”(1 부)를 명확히
- 인간의 선호에서 깊은 RL
- 딥 러닝 관점에서 정렬 문제
3 단계
- AIS 회전 : AIS가 가짜 정렬을 훈련 중에 전력을 얻기 위해 가짜 정렬할까요?
- 대형 언어 모델에 대한 확장 가능한 감독의 진행 상황을 측정합니다
- 고급 기계 학습 시스템에서 학습 최적화의 위험
- 보상 모델링을 통한 확장 가능한 에이전트 정렬
계층 4+
- AI 속임수 : 예, 위험 및 잠재적 솔루션에 대한 조사
- 측정 변조 감지를위한 벤치 마크
- AI 안전에 대한 Oracle 접근법을위한 테스트 근거로서의 체스
- 비인간적 인 미래로 문을 닫으십시오 : 우리가 초인간적 인 일반적인 인공 지능을 개발하지 않기로 선택 해야하는 방법과 이유
- 극단적 인 위험에 대한 모델 평가
- 프론티어 AI 개발에 대한 책임보고
- 안전 사례 : 고급 AI 시스템의 안전성을 정당화하는 방법
- 슬리퍼 에이전트 : 안전 훈련을 통해 지속되는기만 LLM 훈련
- 기술 보고서 : 대형 언어 모델은 압력을 가하면 사용자를 전략적으로 속일 수 있습니다.
- Tensor Trust : 온라인 게임에서 해석 가능한 신속한 주입 공격
- 신경 모델의 교육 데이터를 확인하기위한 도구
- 수렴 된 안전 범위를 가진 신중한 과학자 AI를 향해
- 언어 에이전트의 정렬
- 잠재적 인 지식을 이끌어냅니다
- 피해를 줄이기위한 빨간 팀 언어 모델 : 방법, 스케일링 행동 및 배운 교훈
- 언어 모델이있는 빨간 팀 언어 모델
- ML 안전에서 해결되지 않은 문제
경제적, 사회적 영향
3 단계
- AI 자동화의 폭발성 성장 : 논쟁 검토
- 언어 모델은 정보 시장에서 비대칭을 줄일 수 있습니다
계층 4+
- Human-AI 지식 격차 브리징 : Alphazero의 개념 발견 및 전이
- 기초 모델과 공정한 사용
- GPT는 GPT입니다 : 대형 언어 모델의 노동 시장 영향 잠재력을 조기 살펴 봅니다.
- AGI 수준 : AGI 경로에서의 운영 진행 상황
- 폴리스와의 확장 가능한 심의를위한 LLM의 기회와 위험
- 기초 모델의 기회와 위험에
철학
2 단계
계층 4+
- 인공 지능의 의식 : 의식 과학의 통찰력
- 철학자들은 철학적으로 관련된 AI를 개발하고 이론화하며 사용해야합니다.
- 자체 보고서를 사용하여 도덕적 지위에 대한 AI 시스템을 평가합니다
관리자
[email protected]