전체 글(114)
-
[NLP] Faiss와 CLIP을 이용한 간단한 Text Retrieval 구현하기
A. 수단- OS/Platform/Tool : Linux, Kubernetes(k8s), Docker, AWS- Package Manager : node.js, yarn, brew, - Compiler/Transpillar : React, Nvcc, gcc/g++, Babel, Flutter- Module Bundler : React, Webpack, ParcelB. 언어- C/C++, python, Javacsript, Typescript, Go-Lang, CUDA, Dart, HTML/CSSC. 라이브러리 및 프레임워크 및 SDK- OpenCV, OpenCL, FastAPI, PyTorch, Tensorflow, Nsight 1. What? (현상)추천시스템(Recommendation System)..
2024.06.06 -
[NLP] GPT 기초 정리
GPT(Generative pre-trained transformers)는 OpenAI에서 개발된 LLM(Large Language Model)입니다. 정확하게는 PLM(Pre-trained LM, PTM)이라고 할 수 있는데, 최근 잘알려진 모델로는 GPT-4, LLaMA2, PaLM2 등이 있습니다. 이 중 GPT-Based의 모델들의 특징은 Decoder 기반으로 설계되었다는 것이고, 이들은 생성 task에 매우 강해 다른 NLP 데이터를 만드는 데에도 쓰이기도 합니다. 또한 이들이 사용하는 데이터는 주로 인터넷에서 크롤링 되었기 때문에, 결과물에 적절하지 않은 언어도 포함되기도 합니다.이들은 아래와 같은 NLP의 다양한 분야에서 뛰어난 성능을 보여줍니다.텍스트 생성(Text Generation..
2024.06.06 -
[Generative] InstanceDiffusion: Instance-level Control for Image Generation (CVPR'24)
Paper : https://arxiv.org/pdf/2402.03290AuthorsMeta + UC Berkeley Univ, CVPR’24Main Ideapretrained T2I모델을 control하기 위한 방법으로, 개별적인 instance들에게 각각 control을 제공하기 위한 모델** GLIGEN의 open-set grounded T2I문제와 비슷한 문제를 해결합니다.instance별로 각각 free-form language condition을 제공할 수 있으며, 아래와 같은 location에 대한 유연한 control을 제공할 수 있습니다.Single pointScribbleBounding boxInstance segmentation maskTasks : Text2Image + Contro..
2024.05.25 -
[Generative] Transparent Image Layer Diffusion using Latent Transparency (arxiv'24)
Paper : https://arxiv.org/pdf/2402.17113AuthorsLvmin Zhang et al, Stanford Univ., arxiv’24ControlNet 저자Main Ideapre-trained LDM을 활용해 transparent 이미지를 생성하도록 합니다.Task1. 하나의 transparent 이미지 생성Task2. multiple transparent layers 위 Task2 모델에서는 Shared Attention 메커니즘을 활용해 레이어간의 coherent하도록 학습합니다.HITL collection scheme을 활용해 데이터를 구축했습니다.Tasks : Transparent Image Generation (Unconditional, Conditional)Resu..
2024.05.02 -
[Generative] Diffusion-based Inversion과 Personalization에 대한 생각
개인적으로 Generative 관련된 결과를 내다보면, 학습된 모델을 이용해 결과를 얻어 내는 것도 좋지만 나만의 "새로운 컨셉"에 대한 결과를 얻는 것에 더 관심이 많은 것 같습니다. 이를 Personalization이라고 하기도 하는데, 이를 위한 다양한 기법을 비교하던 중 아래와 같은 의문들이 생겼습니다.새로운 컨셉을 학습시키고 싶은데, 단순히 fine-tuning을 한다면 내가 원했던 특징들도 사라지지는 않을까?내가 원했던 특징을 남기면서, 특정한 특징을 학습하려면 Fine-tuning 기법 / Personalization 기법 / Inversion기법 어떤 방법을 활용해야하며 무엇이 다르지?왜 위에서 보았던 다양한 기법들이 어떤 논문에서는 Controling style variants..
2024.04.19 -
[Git] 작업중인 Repository History 분석
A. 수단 - OS/Platform/Tool : Linux, Kubernetes(k8s), Docker, AWS - Package Manager : node.js, yarn, brew, - Compiler/Transpillar : React, Nvcc, gcc/g++, Babel, Flutter - Module Bundler : React, Webpack, Parcel B. 언어 - C/C++, python, Javacsript, Typescript, Go-Lang, CUDA, Dart, HTML/CSS C. 라이브러리 및 프레임워크 및 SDK - OpenCV, OpenCL, FastAPI, PyTorch, Tensorflow, Nsight 1. What? (현상) Git으로 작업된 Repository가..
2024.04.02