이 텍스트는 샘플 텍스트에요. 수강신청을 하면 원본 텍스트를 볼 수 있어요.
기능주의라는 이론은 우리가 배우는 주제와도 뿌리를 같이합니다. 앨런 튜링은 그의 유명한 연구인 계산 기계와 지능에서 '기계도 생각할 수 있는가?'라는 질문을 던지는데요, 그로부터 10년 후 힐러리 퍼트남이 기계도 생각할 수 있음을 주장하며 제안한 논변이 기능주의의 원형입니다. 특히 기능을 진화의 역사와 결부시켜 설명하는 이론을 목적론적 의미론이라 합니다. 이를 통해 마음과 인간의 정신을 초자연적 존재를 가정하지 않고 설명해낼 수 있기에 자연주의 철학으로 간주하기도 하죠. 물론 완벽한 것은 아닙니다.
Comments
august_gump
1년 전
강의 실습을 하고 있는데, 설정을 강의랑 똑같이해서 계속 실험을 해봐도 저는 처음 epoch부터 gradient norm이 매우 작아서, 학습이 되질 않습니다. 이미지를 argument하는 부분이나 가중치를 처음에 초기화 하는 부분이 랜덤이라 강의랑 똑같지 않을 수 있다고는 생각했는데, 기울기 폭발 현상을 관측할 수가 없어서, 다음 강의인 gradient clipping이나 learning rate 스케줄링 등의 테크닉을 적용해보기가 어려운데 혹시 기울기 폭발을 볼 수 있는 팁이 있을까요?
junhsss
1년 전
말씀하신대로 랜덤성에 의해 다소간의 차이가 발생할 수는 있으나 결과는 얼추 비슷해야 합니다. 실험을 여러 번 수행해도 강의와 같은 결과물을 확인할 수 없으시다면 무언가 문제가 있다고 생각되는데요. 학습에 사용한 코드나 로그를 보여주시면 더 정확히 판단할 수 있을 것 같습니다.
junhsss
1년 전
보내주신 코드 확인했습니다. 가중치를 선언할 때 강의에서와 같이 3 * 16 * 16으로 나누어 주면 해결이 되는 문제인데요. Gradient norm이 작다는 뜻은 아예 학습이 이루어지지 않고 있다는 뜻이기에 어딘가에 해결이 필요한 버그가 숨어있다고 보아야 합니다. 제가 원인을 알려드리지 않았다고 가정했을 때 어떤 식으로 디버깅이 이루어져야 하는지 한번 복기해보시면 좋을 것 같아요.