본문 바로가기

전체 글

(10)
[부록] SynergyX 코드 결과 확인 https://github.com/GSanShui/SynergyX?tab=readme-ov-file GitHub - GSanShui/SynergyXContribute to GSanShui/SynergyX development by creating an account on GitHub.github.com git clone https://github.com/GSanShui/SynergyX.git conda 환경에서 실행했는데torch-sparse가 버전 호환 문제로 설치가 안되서 고생을 하다가결국엔 사수 선배가 만들어놓은 docker로 돌려봤습니다 here을 클릭해서 데이터 파일을 다운로드 받아서 옮겨줍니다그 다음에는 training 코드를 실행시킵니다 밑에 파란색 "here"을 클릭하여 학습된 모델을 ..
chapter 02 제목으로 이해하는 SynergyX 이야기 이번 논문 제목은SynergyX: a multi-modality mutual attention network for interpretable drug synergy prediction입니다 https://academic.oup.com/bib/article/25/2/bbae015/7604885 제목을 살펴보면,multi-modalitymutual attention networkinterpretabledrug synergy prediction 이라는 단어들이 있습니다 먼저 multi-modality입니다modality는 정보의 유형 또는 형태를 의미합니다text, image, audio, video, sensor 등 각각이하나의 모달리티입니다그렇다면, multi-modality는 말 그대로서로 다른 유형의 ..
chatper 01 Attention is All You Need: Transformer 이번 시리즈는 [클래식 명작 논문 시리즈]입니다논문의 제목은 ‘Attention is All You Need’입니다. Attention만 있으면 된다는 데, Attention이라는 것은 무엇일까요.Attention은 ‘주목‘, ‘집중‘ 이라는 뜻입니다. 하늘색 통역사는 회의 참가자들을 바라보면서누구의 말에 주목해야할 지 결정합니다.이것을 Attention이라고 한다면, Self-Attention은 모두가 서로 의견을 나누는 회의입니다.자신의 의견을 결정할때 다른 사람들의 의견을얼마만큼 참고할지 각자 스스로 결정합니다. 자신(self)를 표현할때 문장 내 다른 모든 입력을 스스로 참고하기 때문에Attention에 self가 붙은 self-attention이라고 합니다. 해당 논문에서 주목해야 되는 문장은W..
Chapter 01 제목으로 이해하는 Super.FELT 이야기 이번 시리즈는 [제목으로 이해하는 논문이야기] 입니다 논문 제목은Super.FELT: supervised feature extraction learningusing triplet loss for drug response prediction with multi‑omics data입니다 https://scholar.gist.ac.kr/handle/local/11111 GIST Repository: Super.FELT: supervised feature extraction learning using triplet loss for drug response prediction with multi-oSuper.FELT: supervised feature extraction learning using triplet ..
chapter 01 이진 탐색 만능 풀이 (python) 이걸 끝까지 읽는다면모든 이진 탐색 문제를 풀 수 있게 될 거야 우선 이 시리즈에서는이진 탐색이 무엇인가에 대한 고찰보다는이진 탐색 문제를 어떻게 풀지에 대해 초점을 맞춰서얘기를 해볼게 우선 0부터 100까지의 숫자가 있을 때25라는 값을이진탐색으로 찾는 과정을 보여줄게 그리고 나서는mid=(left + right) //2를 구해줄게0과 100의 mid는 50이야우리가 찾고 싶은 값은 25잖아 50을 기준으로 왼쪽에 있을까 오른쪽에 있을까?25 mid의 왼쪽에 있지 그래서 오른쪽을 지우는 거야찾고 싶은 값이 mid의 왼쪽에 있으니까.그리고 새로운 right를 설정해줘new right = mid -1 이야여기서는 49가 되는 거지 이제부터는 아까 했던 과정을 계속 반복해주는 거야mid를 구하..
chapter 05 RNN이 뭐냐고 물어보면 뭐라고 해야될까 RNN이 뭐냐고 물어보면뭐라고 해야될까 역시 chapter 01은 꼭 읽고 와야돼일단은 그때 보여줬던 그림을 다시 보여줄게MLP (다층 퍼셉트론)은 피드-포워드 신경망이야(feed-forward neural network)CNN 또한 피드-포워드 신경망이야 그게 뭐냐면 순방향이라는 거야데이터가 한 방향으로만 흐르는 거야입력에서 출력으로 여기서 좀 헷갈렸던 게 역전파는 뒤로 가잖아? 였어 근데 역전파는 신경망이 아니라 학습을 시키는 알고리즘이야순전파만 있으면 예측만 가능한거고역전파를 이용해서 모델을 학습시키는 거야그치만 이 모델 자체는 입력-> 은닉층 -> 출력이렇게 한 방향으로 흘러가는 거야 chapter 01에서는 얘기를 안하고 있다가갑자기 이 얘기를 하는 이유는 뭐냐면RNN은 이것과 다르기 때문이야R..
chapter 04 CNN이 뭐냐고 물어보면 뭐라고 해야될까 누가 CNN이 뭐냐고 물어보면뭐라고 해야될까 자 일단 chapter 01은 꼭 읽고 와야해그때 다층 신경망에 대해서 말했었잖아이렇게 생긴 거 그럼 CNN은 뭐가 다를 까? 우선 다층 퍼셉트론은 완전 연결 구조의 층으로 구성이 되어 있어모든 노드들이 다 연결이 되어 있잖아영어로 하면 fully connected 구조야 그리고 그때도 말했듯이이렇게 생긴 20X20 이미지를 입력층에 넣으려면쭉 한 줄로 만들어야 돼 근데 잠깐컬러 이미지는 3차원 구조야 봐 이렇게 흑백사진과 컬러사진이 있어 흑백 사진은 이렇게 2차원 구조로 되어있어우리가 흔히 흑백 사진이라고 부르는 게그레이스케일이야 여기에 적혀있는 숫자는 뭐냐면0 부터 255까지 있는데0은 검은색이고255은 흰색이야만약에 128 정도면 회색이 되겠지 근데 컬..
chapter 03 경사 하강법이 뭐냐고 물어보면 뭐라고 해야될까 누가 경사하강법이 뭐냐고 그러면 뭐라고 해야되지아찔한 질문이네오늘은 이 질문에 어떻게 대답할지 같이 생각해보자 우선은https://jyaenugu.tistory.com/21시리즈 chapter 1에 있는 내용을 다시 보여줄게 chapter 01 딥러닝이 뭐냐고 물어보면 뭐라고 해야될까누가 딥러닝이 뭐냐고 물어보면나는 뭐라고 해야될까꽤나 짜릿한 질문인데뭐라고 해야될지 미리 생각해보자 아마도 먼저이런 거를 보여주지 않을까머신러닝이 뭐냐고 물어보지 않기를 빌면서jyaenugu.tistory.com """자 역전파에서각 가중치가 손실함수에 얼마나 기여했는지기울기를 다 계산했다면,이제는 다음 단계인최적화 문제에 대해 알아볼 차례야 영어로는 optimization이라고 해어떤 함수를 최소로 만들거나 최대로 만드는 ..