코딩소비

코딩소비

  • 분류 전체보기 (327)
    • Linux (1)
    • 가상환경 및 라이브러리 설치 (6)
    • colab (4)
    • Tensorflow (10)
    • Pytorch (4)
    • GNN lab study (5)
      • DGL (2)
    • AI수학 (7)
      • Linear Algebra(선형대수학) (5)
    • python (2)
    • Google ML Bootcamp (181)
      • 1. Neural Networks and Deep.. (40)
      • 2. Improving Deep Neural Ne.. (35)
      • 3. Structuring Machine Lear.. (21)
      • 4. Convolutional Neural Net.. (49)
      • 5. Sequence Models (36)
    • AI역량검사 (3)
      • 성향파악 (1)
      • 게임 (1)
      • 영상면접 (1)
    • NAVER AI Tech (87)
      • Python & AI math (16)
      • Pytorch (10)
      • Deep Learning (8)
      • Data Visualization (2)
      • Recommen System (18)
      • Project (10)
      • Computer Science (9)
      • Deep Knowledge Tracing (6)
      • Movie Recommendation (8)
    • ML model (6)
      • Tableau Model (2)
      • Graph Neural Network Model (1)
      • Computer Vision Model (0)
      • Sequence Model (0)
      • Generative Model (3)
    • 기술 면접 (7)
      • 데이터베이스 (2)
      • AI(ML,DL) (5)
    • 코딩테스트 (2)
  • 홈
  • 태그
  • 방명록
RSS 피드
로그인
로그아웃 글쓰기 관리

코딩소비

컨텐츠 검색

태그

2024상반기 #하나은행합격후기 #하나은행채용 #하나은행서류 #하나은행필기 #하나은행면접 #은행채용 #은행서류 #은행면접 #은행취준 GNN #GNN개념 #GNN 관련지식

최근글

댓글

공지사항

아카이브

ML model/Tableau Model(2)

  • GBM(XGB, LightGBM, Catboost)

    GBM(Gradient Boosting Model) : Tree 기반의 모델. - Gradient Descent(경사하강법)을 사용한 boosting(앙상블 알고리즘) 기법 - Adaboost는 오 분류에 대해 weight를 조절하여 bootstrap을 생성했다면 GBM은 전체적인 residual(잔차)에 대해 minimize하는 방식으로 진행. Gradient Descent(=negative gradient) - 즉 gradient(기울기)가 감소하는 방향(-)으로 학습을 진행하므로 negative라는 말을 씀. - loss function이 MSE라고 일 때 negative gradient를 구해보자. Gradient Desent가 결국 residual과 식이 똑같다..!(=결국 loss를 표현한 것..

    2024.01.22
  • Ensemble(bagging, boosting)

    Ensemble: 여러 모델을 학습하여 오류의 감소를 추구함. - "No free lunch" : 특정 문제에 최적화된 모델이 다른 문제에서는 그렇지 않음을 수학적으로 정리. - 따라서 어떤 알고리즘도 모든 상황, 모든 데이터에서 절대적으로 우위에 있지 않음. ex) bootstrap을 통해 원본 dataset으로부터 T개의 subset을 만들고, 각 subset별 다른 모델(T개)을 학습하여 predict값 T개 추출 - T개의 predict값을 Voting(voting, weight voting, stacking 등등 기법 여러가지)하여 최종 predict 생성하는 기법. **개별 모델의 평균 오류보다 앙상블의 오류가 같거나 작음. - 즉 가장 최적화 모델보다 뛰어난지는 알 수 없으나 개별 모델들의 ..

    2024.01.22
이전
1
다음
티스토리
© 2018 TISTORY. All rights reserved.

티스토리툴바