AI tech 반응형 썸네일형 리스트형 글또 10기 회고: 완벽하진 않았지만, 성장했다 글또 10기의 11회차 글쓰기 활동까지 마무리하고 이제 마지막 한 걸음만 남았다. 이번 글에서는 글또를 시작할 때 세웠던 목표를 돌이켜보며, 그동안의 경험을 정리해보려 한다.처음 세운 목표기술 블로그 글쓰기 실력 향상기술적인 주제를 명확하고 쉽게 전달하는 능력을 기르고자 함꾸준한 학습 및 기록글쓰기를 통해 학습한 내용을 기록하고, 정리해서 공유하는 습관을 들이려 함활동을 통한 네트워크 구축같은, 또는 다른 분야의 전문가들과 교류를 넓히고자 함처음 글또 10기에 참여할 때, 나는 ‘일정한 주기로 양질의 글을 작성하겠다’는 목표를 세웠다. 머신러닝과 백엔드 개발을 병행하는 입장에서, 내가 배운 것들을 정리하고 공유하는 습관을 들이는 것이 중요하다고 생각했기 때문이다.하지만 현실은 예상과 달랐다. 초반에는 나.. 더보기 주간회고 작성 좀 해줘! : Notion + LLM을 활용한 회고 자동화 시스템 프로젝트 Github:https://github.com/maxseats/notion-retrospect-upload GitHub - maxseats/notion-retrospect-upload: 노션 API를 활용해서 주간회고를 작성하고자 한 노력입니다.노션 API를 활용해서 주간회고를 작성하고자 한 노력입니다. Contribute to maxseats/notion-retrospect-upload development by creating an account on GitHub.github.com1. 개요개발을 하면서 꾸준한 회고가 중요하다고 생각하지만, 매번 직접 정리하는 것이 쉽지 않았다. 하루하루 쌓이는 작업 로그를 다시 살펴보고 정리하는 과정이 번거로웠기 때문이다. 이에 따라, 자동으로 개발일지를 .. 더보기 [논문 리뷰] Kanana: Compute-efficient Bilingual Language Models 안녕하세요! Kanana 관련 테크니컬 리포트가 공개되었다는 소식을 듣고, 리뷰와 함께 직접 테스트까지 일부 진행해봤습니다. 실제 논문 요약은 다음 링크에서 확인하실 수 있습니다:[논문 요약] Kanana: Compute-efficient Bilingual Language Models 관련 링크:카카오, ‘Kanana 테크니컬 리포트’ 통해 자체 개발 AI 모델 연구 성과 발표... 경량 모델 ‘Kanana Nano’는 오픈소스로 공개밑바닥부터 Kanana LLM 개발하기: Pre-training - tech.kakao.com카카오의 AI 모델, 카나나 모델 패밀리를 소개합니다 - tech.kakao.comKanana: Compute-efficient Bilingual Language Models 총평최.. 더보기 [논문 요약] Kanana: Compute-efficient Bilingual Language Models 안녕하세요! 이 글은 최근에 카카오에서 출시한 Kanana 언어 모델에 대한 논문을 요약한 글로, 한국어 성능에 특화된 대형 언어 모델에 관심이 있는 연구자나 개발자 분들께 인사이트가 될 것이라 생각합니다. 논문 리뷰 링크:[논문 리뷰] Kanana: Compute-efficient Bilingual Language Models논문 링크 : arxiv.org 딥러닝 및 자연어 처리, LLM 분야에서 카카오가 어떤 전략을 선택했는지에 대한 유익한 내용이 담겨있으니, 꼭 한 번 확인해 보시길 권장드립니다. 모델 경량화, 비용 최적화, 사전 학습 및 후처리 기법을 활용한 최신 연구 및 기술에 관심이 있는 분들에게 유익한 정보가 되기를 기대해 봅니다. 그럼 시작하겠습니다 :) AbstractKanana의 Pr.. 더보기 [논문 리뷰] DeepSeek-R1: Incentivizing Reasoning Capability in LLMs via Reinforcement Learning 논문 링크 : arxiv.org 안녕하세요, 기술적 성장을 이루고 계시는 엔지니어, 개발자, 리서처 분들께 인사드립니다! 이번 논문은 최근에 핫한 AI 모델인 DeepSeek-R1, DeepSeek-R1-Zero에 대해 다룹니다. 이 모델들은 강화 학습을 기반으로 하여, 적은 양의 지도 학습 데이터를 활용했음에도 뛰어난 추론 성능을 보여주고 있는 것이 특징입니다. 또한 다양한 크기를 가진 오픈소스 버전도 제공하여 실제 적용 가능성을 확장하고 있습니다. AI, LLM 연구 및 개발, 또는 자연어 처리나 강화학습 분야에 관심이 있으신 분들에게 도움이 되었으면 좋겠습니다. 본 리뷰 글을 통해 딥시크의 자세한 내용을 숙지하고, 어떻게 강화학습을 통해 AI의 잠재력을 극대화할 수 있는지에 대한 통찰을 얻으셨음 좋.. 더보기 [논문 리뷰] Byte Latent Transformer: Patches Scale Better Than Tokens 안녕하세요! 이번 논문 리뷰에서는 Meta의 연구진이 제안한 새로운 모델, BLT(Byte Latent Transformer)에 대해 다뤄보았습니다. 기존의 토크나이저 기반 모델들이 갖고 있던 한계점을 극복할 수 있는 가능성을 제시하는 모델로서, 바이트 단위의 동적 패칭을 통해 토큰화 없이도 고성능의 LLM을 만들 수 있음을 시사하고 있습니다. BLT는 바이트 데이터를 다루는 접근 방식으로 성능을 최적화하면서도 계산 자원을 효율적으로 활용할 수 있는 잠재력을 보였습니다. 바이트 시퀀스 자체를 다루는 언어 모델링에 대한 연구이기에, 방법론을 살펴보면 문자열이 아닌 바이트의 나열을 처리하기 위해 어떤 접근을 취했는지에 대한 내용을 다루게 됩니다. 또한, 토크나이징을 배제하고 바이트를 예측 한다면 언어 뿐 아.. 더보기 2024 하반기 회고: Everything Everywhere All At Once 안녕하세요. 하반기 회고로 돌아온 신입 ML Engineer입니다. 프로젝트, 인턴 등을 하며 취업준비를 했던 이야기. 그리고 취업과 함께 독립을 하며 느낀 점을 위주로 작성했고, 마지막으로 연말의 회고를 쓰며 마무리했습니다. 취업을 준비하시거나 AI/ML 분야에 관심이 있으신 분, 독립을 준비하시는 분께서 가볍게 읽기 좋으실 듯 합니다.바로 시작! 7월취업 준비를 주로 하고 있던 시기. 하반기의 메인 이벤트는 취업이다. 그 전에는 프로젝트를 하면서 월마다 받는 돈과 기존에 가지고 있던 돈으로 자금 이슈를 해결하고 있었다.AI 쪽 경험을 쌓을 수 있는 것으로 만족해서, 돈을 얼마나 많이 주는지는 큰 관심이 없었던 시기였던 것 같다. 일단 어디든 기회를 잡아놓고 생각해보자는 마인드로 살았었다. 그렇게 취업.. 더보기 2024 상반기 회고: Everything Everywhere All At Once 많은 일이 있었던 것 같지만 빠르게 흘러간 2024년.. 무슨 일이 있었는지 되돌아보며 앞으로를 생각해보고자 한다. 내 2024년은 크게 부스트캠프와 그 이후로 나누어진다. 일단 상반기 회고에서는 부스트캠프를 하며 느꼈던 점들과, 그 이후 어떤 활동을 하며 시간을 보냈는 지를 기록했다. 하반기는 고용노동부에서 주관하는 인턴십 프로그램을 하다가 ML Engineer로 취업을 했는데, 기회가 된다면(또는 반응이 좋으면) 하반기 회고 글을 작성할 예정이다. 그럼 시작! 1월네이버 부스트캠프를 진행하며 한창 바빴던 시기. 당시 Level 2에서 다음 Task 대회를 진행했다.KLUE 데이터셋을 활용한 문장 내 단어들의 관계 추출(링크)Data Centric 에서 기사 헤드라인 주제 분류당시 일정을 소화하는데 과.. 더보기 이전 1 2 3 다음