peter4824316월 20일4분AI에 자아가 있다고? 구글 람다(LaMDA) 논문 리뷰오늘은 구글의 개발자를 휴가 보내버린 인공지능 모델을 소개해보려합니다. 어느정도 공포감이 조성되었는지 SNS, 유튜브, 기사에서 많이 올라오고 있습니다. 과연 구글의 LaMDA는 영혼, 자아를 가지고 있을까요? 논문과 LaMDA가 만든 대화들을...
peter4824316월 17일2분CS 285 Optimal Control and Planning 리뷰 - 전편오늘은 Model-Based learning에 들어가기 앞서 왜 Model-Based learning이란 방법이 나오게 되었는지 살펴보는 시간이 되겠습니다. 몇 가지를 설명하기 위해서는 용어에 대한 이해가 필요한데요 모르시는 분들은 해당 링크...
peter4824316월 10일2분데이터라벨링 전체 시간의 53%를 줄이는 방법데이터라벨링은 AI 훈련을 위해 필수적으로 거쳐야하는 작업인데요 초기의 AI 업계에서는 이러한 작업을 모두 수작업으로 진행하였고 수작업 인력들을 효율적으로 관리하는 분야, DataOps, sudo-labeling등 데이터 라벨링의 고통을 해결하기...
peter4824315월 27일2분강화학습 기초 용어 설명쟈비스, 아테나와 같은 인공지능은 언제 쯤 등장할 수 있을까요? 오늘은 현대의 약인공지능을 언젠가는 강인공지능으로 만들어줄 알고리즘 중 하나인 강화학습의 기초 용어를 설명해보겠습니다. 강화학습을 처음 접하게 되면 지도학습 방식과 동작하는...
-5월 20일2분Beyond CS285 VAIL 리뷰IRL이 가지고 있는 철학과 특징은 인간의 의도를 학습하는 것인데 개인적으로 마음에들어 지난번 소개한 GAIL의 확장팩인 VAIL 논문을 따로 보게되었다. 전편으로 가기 논문의 풀네임이 엄청나게 긴데 (VARIATIONAL...
-5월 13일2분인공지능 훈련에는 데이터가 얼마나 필요할까?이번 시간에는 How many samples are Needed 논문을 리뷰하면서 모델마다 얼마나 데이터가 필요한지 대략적으로 추정해볼 수 있는 시간을 가져보자. 저자는 단일 CNN 모델과 단일 RNN 모델에 대해 얼마의 데이터가 필요한지...