Code 25

[Python] 여러가지 함수 모음 (코딩테스트)

목차 [내장함수] eval [내장함수] map [내장함수] join [내장함수] split [내장함수] upper, lower [내장함수] iter, next [내장함수] replace [내장함수] dict (get, keys, values, items) [내장함수] list (insert, extend, pop, remove) [itertools] permutations, combinations [collections] Counter [collections] deque (rotate, popleft) [내장함수] eval 문자열이 들어오면 그것을 실행시키는 함수 a = eval('1+2') print(a) >>> 3 b = eval(len([1,2,3])) print(b) >>> 3 [내장함수] map..

Code/Python 2024.04.04

[Automatic 1111] Stable-Diffusion-webui Mac 로컬 설치 및 실행

RTX 3070 GPU 가 있는 데스크탑이 있긴 하지만, 맥이 들고다니기 편해서 맥에 SD 를 설치해봤다. 물론 공식 깃헙 코드를 사용하면 학교 서버로도 돌릴 수 있지만, 가독성 측면에서 webui 가 훨씬 편한 관계로 설치를 했음 다만 로컬 환경으로 실행하기 때문에, 속도가 많이 느릴 수 있다는 것을 전제로 설치 맥 M1 모델에 설치하려고 하는데 생각보다 한글 설명이 많이 없어서 직접 작성 공식 문서는 다음 링크 참고: https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Installation-on-Apple-Silicon Installation on Apple Silicon Stable Diffusion web UI. Contribute to ..

[Linux] ln 명령어

link 의 약자로 리눅스에서 링크 파일을 생성할 때 사용 Symbolic Link 파일이나 디렉토리에 대한 참조 또는 바로가기와 같음 대상 파일이 이동되거나 삭제되면, 심볼릭 링크는 더 이상 유효하지 않음 파일 시스템을 넘나드는 링크를 생성 ln -s [대상 파일 또는 디렉토리] [링크 이름] Hard Link 파일의 실제 데이터에 대한 추가적인 포인터 하드 링크는 원본 파일과 동일한 데이터를 가리키며, 원본 파일이 삭제되어도 링크는 여전히 데이터에 접근 하드 링크는 같은 파일 시스템 내에서만 생성 ln [대상 파일] [링크 이름]

Code/Linux 2024.03.13

[runwayml] Stable-Diffusion (Official) 코드 실행

Stable Diffusion (SD) code 를 다른 opensource 와 마찬가지로 공식 github 에서 받아 돌려봤는데, 돌리긴 어렵진 않은데 ChatGPT 에 있는 Dall-E 와 비교했을 때 사용법이 좀 불편하다는 것을 느낌 일단 LDM 공식 github 실험 결과를 보자. Weight 는 Huggingface [2] 에서 SD v1-5 를 사용했고 GPU 는 연구실에서 사용하던 Ubuntu 서버로 따로 학습은 진행하지 않고 Sampling 만 진행 Img2Img 이 실험은 내 증명사진으로 진행을 해봤음 제일 왼쪽 사진이 내 증명사진이고 오른쪽 10장의 이미지는 정확한 prompt 는 기억이 나지 않지만... '얼굴을 좀 더 잘생기게 바꿔줘' 이런 내용이 들어갔던것 같은데.. 성능이 좀 별..

[Linux] ssh 비밀번호 없이 접속

Local terminal 에서 > ssh-keygen Generating public/private rsa key pair. Enter file in which to save the key (/Users/USER/.ssh/id_rsa): # 그대로 enter키 /Users/USER/.ssh/id_rsa already exists. Overwrite (y/n)? y # Y 입력 Enter passphrase (empty for no passphrase): # 비밀번호를 설정하는건데 비밀번호 없이 접속해야하기 때문에 아무것도 입력하지 말고 enter키 Enter same passphrase again: # 마찬가지로 아무것도 입력하지 않고 enter 키 Your identification has been ..

Code/Linux 2023.07.31

[Pytorch, timm] Optimizer & Parameter Group Learning Rate

pytorch 에서 일반적으로 optimizer 를 다음과 같이 사용 optimizer = optim.Adam(model, lr=0.0001) 만약 model 의 각 parameter 에 다른 옵션 (learning rate, eps 등)을 주고 싶은 경우 다음과 같이 각 parameter group 지정 optim.Adam([{'params': model.base.parameters()}, {'params': model.classifier.parameters(), 'lr': 1e-3}], lr=1e-2) Parameter group 은 다음으로 확인 가능 #n 번째 parameter group 을 보고 싶은 경우 print(optimizer.param_groups[n]) >>> Adam (Paramet..

Code/Pytorch 2023.06.27