Memo (11) 썸네일형 리스트형 [Memo] 자기계발 몰입 - 황농문 교수 동물로서의 인간은 끊임 없는 불안에 빠지도록 진화했다. 이런 본능은 인간으로 하여금 유튜브,게임 등 발산적인(내리막) 행동에 빠지도록 유도한다. 그러나 성취는 수렴(오르막)적인 행동이다. 우리의 뇌는 고통과 성취의 가성비를 기억하기 때문에 내리막의 습관을 선호한다. 몰입을 통해 뇌가 오르막의 성취를 기억하도록 유도해야한다. 생각과 고민(걱정)은 다르다. 고민은 생각을 하도록 도와주지만, 고민 상태가 지속되면 생각의 효율이 떨어진다. 어떤 고민을 통해 생각이 도출되면 고민은 끝나야한다. 그 방법은 결과에 집착하지 않는 것. 생각은 이완 상태일때 가장 활성화된다. 명상, 운동, 샤워, 선잠, 숙면 등 [MEMO] CS 상식 정리 객체 지향 프로그래밍(OOP)의 개념과 배경 프로그램을 '객체(Object)'라는 기본 단위로 나누고, 이들의 상호작용으로 서술하는 방식 객체는 구체적인 역할을 지닌 '메서드'와 '필드'의 묶음으로 구성된다 JAVA가 객체지향의 대표 언어이나, JAVA만이 객체지향 언어인 것은 아니며 객체가 곧 class인 것도 아니다. (JS는 class 대신 프로토타입을 사용) 배경 및 효과 : 코드의 중복 방지, 코드의 역할 및 용도 명확화 등장 배경 · 절차적 프로그래밍 : 초기의 프로그래밍 프로그래밍은 단순한 명령어의 모음. 프로그램의 기능에만 신경을 썼을 뿐, 프로그램이 취급하는 데이터에 대해서는 무관심 코드가 복잡해지는 경우 유지보수가 곤란하고 중복코드가 생성되는 문제 발생 ↓ · 구조적 프로그래밍 : 프로.. [NETWORK] 모든 개발자를 위한 HTTP 웹 기본 지식 (인프런 김영한) ▒ 모든 개발자를 위한 HTTP 웹 기본 지식 모든 개발자를 위한 HTTP 웹 기본 지식 - 인프런 | 강의실무에 꼭 필요한 HTTP 핵심 기능과 올바른 HTTP API 설계 방법을 학습합니다., - 강의 소개 | 인프런www.inflearn.com1. 인터넷 네트워크IP(인터넷 프로토콜) : 인터넷의 통신 규칙역할 : 지정한 IP 주소에 데이터 전달, 전송 단위를 패킷이라 함프로세스 : 출발지와 목적지 IP를 지정해서 보내면 목적지를 찾아가는 방식한계 : 비연결성 : 패킷을 받을 대상이 없거나, 서비스 불능이어도 패킷은 전송됨비신뢰성 : 패킷 손실이나 패킷 순서에 혼란이 생기는 경우가 존재구분불가 : 하나의 IP 내에서 여러 애플리케이션이 동작하는 경우 구분이 곤란TCP와 UDP개념 : TCP - 네트.. [PROJECT] 팀 프로젝트 '가보자고' 소개 및 기능 시연 ▒ 프로젝트 개요 ※ 개요 섹션은 목차를 클릭하여 상세 내용을 보실 수 있습니다!1. 컨셉 및 주요 기술프로젝트 컨셉여행 정보 수집 → 일정 수립 → 실행 및 마무리에 이르는 과정을 통합한 서비스 제공제공한 여행 정보를 바탕으로 사용자가 여행 일정을 작성하고, 이를 활용해 여행 후기를 작성할 수 있게 함으로서 컨텐츠의 선순환 유도★여행에 함께 할 친구들과 그림판을 공유하며 일정을 수립 할 수 있는 실시간 협업 툴을 구현프로젝트 팀 소개 및 역할공 통 : 아이디어 회의 & 맡은 파트 DB 설계 & 구현 및 디자인파트 분배 : 여행 정보 / 공유 플래너 / 커뮤니티 / 상품판매 / 마이페이지1. 장ㅇㅇ(본인) : 공유 플래너 아이디어 입안 및 구현 & 해당 파트 DB 설계, 디자인 등2. 외 4인주요 기술.. 캔버스기능구상 보호되어 있는 글입니다. 배포방법 고민 보호되어 있는 글입니다. [Git&GitHub] 깃 & 깃허브 사용법 총정리 보호되어 있는 글입니다. [Memo] ChatGPT의 기초 원리 ※ 흥미본위의 단순 메모이며, 전문적인 지식을 담고있지 않음. 1_Transformer 자연어 처리 모델? 2017년 등장, 번역 목적으로 설계됐으나 성능이 우수해서 번역과 무관한 분야에도 널리 사용된다. '다음에 올 내용은?'이라는 질문을 해결하는 것이 주된 역할 쉽게 말하면 아래와 같은 빈 칸 채우기를 수행하는 프로그램이라고 할 수 있음. 빈 칸에 대한 답을 추론하기 위해 사전정보(=배경비식)가 필요한데, 그 사전정보를 다루는 것이 그 전까지의 언어모델에서 가장 어려운 부분이었다. 1-1_Transformer모델의 Attention mechanism 주목도 개념 : Transformer모델의 독창적인 사전정보 처리 방법 1. Attention score : 각각의 단어는 다른 단어들에게 자신과의 관계.. 이전 1 2 다음