목록전체 글 (156)
AI·빅데이터 융합 경영학 Study Note
vscode 터미널에서 1. 클로닝 하기(langchain_env) root@8c14869ce6aa:~/LLM_Bootcamp# git clone https://github.com/2024-summer-LLM-Bootcamp/business_card.gitCloning into 'business_card'... remote: Enumerating objects: 13, done. remote: Counting objects: 100% (13/13), done. remote: Compressing objects: 100% (9/9), done. remote: Total 13 (delta 1), reused 12 (delta 0), pack-reused 0 Receiving objects: 100% (13/..
https://code-angie.tistory.com/15 [Python] pip 패키지 목록 requirements.txt 생성 및 설치 방법개발에 있어서 개발 환경은 매우 중요한 요소이다. 딥러닝 모델을 구성할 때도 pytorch 버전에 따라 명령어가 차이가 나기 때문에 현재 진행하는 프로젝트에 어떤 패키지들이 어떤 버전으로 설치code-angie.tistory.com vscode 터미널에pip freeze > requirements.txt하면 requirements.txt 파일이 생김. 끝
1. 설치2. config 아이디, 패스워드 (pc 명령프롬프트에서는 $ 생략)3. 저장소 클론: 원하는 디렉토리로 이동한 후 다음 명령어를 입력합니다. (디렉토리를 변경하려면 cd 명령어를 사용하세요.)여기서 https://github.com/username/repository.git은 클론할 저장소의 URL입니다. git clone https://github.com/username/repository.git 4. 저장소로 이동: 저장소를 클론한 후, 생성된 디렉토리로 이동합니다.여기서 repository는 클론한 저장소의 디렉토리 이름입니다. cd repository 이제 해당 저장소의 파일을 로컬 컴퓨터에서 수정하고 관리할 수 있습니다. >> 1. 로컬 저장소 초기화: 터미널이나 커맨드 프롬프..
 네트워크 기본 용어
			
			
				네트워크 기본 용어
				노드(Node): 통신에 참여하는 출발지, 중간 경유지, 목적지 링크(Link): 노드 간 연결 매질(Transmission Medium): 링크에서 신호를 전달하는 매체 ADC(Analog to Digital Converter): 아날 로그 신호(signal)를 컴퓨터에서 처리하기 좋게 디지털 데이터로 변환하는 것을 디지털 샘플링 (sampling)이라고 하고, 그런 장치를 ADC(Analog to Digital Converter)라고 부른다. (마이크) DAC(Digital to Analog Converter): 반대로 디지털 숫 자를 아날로그 신호로 변환해주는 것을 DAC(Digital to Analog Converter)라고 한다. (MP3) 증폭기(Amplifier): 모든 통신 신호는 전송 ..
클라이언트(Client) : 의뢰자 ('고객'보다는 의뢰자가 더 적절하다). request하고, wait하고, reponse를 받는 과정을 수행한다.‘개인용 컴퓨터’를 의미할 때도 있고, 서버에게 특정 서비스를 요청하는 ‘S/W 프로 그램’을 의미할 때도 많다. 서버(Server): 클라이언트가 요청한 것(Request)을 받아서 처리(Processing)한 후 그 결과(Resonse)를돌려주는 서비스(Service)를 제공한다.전산에서 서버는 클라이언트가 요청한 것을 처리해주는 ‘컴퓨터’를 의미할 때가 많다. Service: 클라이언트 컴퓨터(또는 소프트웨어)가 요청한 것을 처 리해주는 ‘S/W 프로그램’
 'javadoc'은(는) 내부 또는 외부 명령, 실행할 수 있는 프로그램, 또는배치 파일이 아닙니다.
			
			
				'javadoc'은(는) 내부 또는 외부 명령, 실행할 수 있는 프로그램, 또는배치 파일이 아닙니다.
				원인1. javadoc 설치가 안되어 있다.원인2. path 설정이 안되어 있다. 오늘의 교훈1. 오타가 없는지 잘 보자2. 리눅스, 운영체제를 공부하자
https://nanpuhaha.tistory.com/70 부스트캠프 Slack 백업받기오프라인에서 잠시 가졌었던 시간에서 어떤 캠퍼분이 Slack 대화 내용을 캠퍼들이 각자 백업해야 되는지 질문한 적이 있다. 운영진에서 Slack 대화내용을 백업받아 제공하지는 않으니, 필요하다면nanpuhaha.tistory.com
 위밋플레이스 wemeetplace
			
			
				위밋플레이스 wemeetplace
				https://www.wemeetplace.com/ 위밋플레이스싸우지 말고 여기서 모여!wemeetplace.com 내가 먼저 개발했어야 했는데
 [논문리뷰] Seq2Seq (Sequence to Sequence Learningwith Neural Networks)
			
			
				[논문리뷰] Seq2Seq (Sequence to Sequence Learningwith Neural Networks)
				참고 자료밑바닥부터 시작하는 딥러닝2https://wikidocs.net/24996https://www.youtube.com/watch?v=4DzKM0vgG1Y&t=1s (여기서부터는 밑바닥2의 챕터 7-2의 요약입니다. ) sequence to sequence: 한 시계열 데이터를 다른 시계열 데이터로 변환하는 것.- 기계 번역, 챗봇, 자동 답신에 응용됨. - 2개의 RNN(= Encoder와Decoder)을 이용함- Encoder-Decoder모델이라고도 한다.Encoder- RNN을 이용해 시계열 데이터를 h라는 은닉 상태의 벡터로 변환한다. (h=hidden) 단순히 RNN이라고 했지만 LSTM이나 GRU를 사용할 수도 있다.- 은닉상태 h는 고정 길이의 벡터이다. 결국 "인코딩한다" 는 임의..
 Word2Vec의 Skip-gram 방법 조사
			
			
				Word2Vec의 Skip-gram 방법 조사
				참고 자료밑바닥부터 시작하는 딥러닝2 p141-146https://wooono.tistory.com/244 [DL] Word2Vec, CBOW, Skip-Gram, Negative SamplingOne-Hot Vector 기존의 자연어처리 분야에서는, 단어를 One-Hot Vector 로 표현했습니다. One-Hot Vector란, 예를 들어 사전에 총 10000개의 단어가 있고, Man이라는 단어가 사전의 5391번째 index에 존재한다면 Manwooono.tistory.com (간단!) word2vec은 2개의 모델이 있다.하나는 CBOW고다른 하나는 여기서 다룰 skip-gram이다. 서로 반대되는 방법인데 CBOW는 context로 target을 예측하는 방법식으로 학습하고,skip-gram..
 ResNet 논문 리뷰
			
			
				ResNet 논문 리뷰
				chrome-extension://efaidnbmnnnibpcajpcglclefindmkaj/https://arxiv.org/pdf/1512.03385 " Deep Residual Learning for Image Recognition " 레츠고 [Abstract]깊은 neural net은 학습시키기가 더 어려움 residual network 가 더 optimize하기 쉽고 깊은 네트워크에서 accuracy를 얻을 수 있음ImageNet 데이터셋으로 VGG net 보다 8배 깊은 152 layer를 사용했고, 여전히 낮은 복잡도임3.57% error rate을 달성했고 ILSVRC classification task에서 1등을 달성함 (2015)ILSVRC & COCO 2015 Competiti..
https://velog.io/@chaujin00/NLP-Embedding-Dot%EC%9C%BC%EB%A1%9C-%EB%8C%80%EC%9A%A9%EB%9F%89-%ED%85%8D%EC%8A%A4%ED%8A%B8-CBOW [NLP] Embedding Dot으로 대용량 텍스트 CBOW목차 word2vec의 문제점 Embedding 층 다중분류에서 이진분류로 Embedding dot 층velog.io 오늘의 교훈: CBOW보다 Skip-gram의 성능이 더 좋다. 그리고 선형대수 복습하자
