1. DQN(Deep Q-Network)의 핵심 아이디어Q 테이블 대신 딥러닝 사용: 전통적인 Q-러닝에서는 상태-행동 쌍마다 Q값을 일일이 저장했지만, DQN에서는 '딥러닝 모델(신경망)'이 주어진 상태를 보고 각 행동의 Q값을 예측합니다.입력은 화면 이미지: 예를 들어, 고전 게임 '브레이크아웃(Breakout)'에서는 현재 게임 화면의 픽셀 이미지를 신경망에 넣어줍니다.출력은 각 행동별 Q값: 신경망은 가능한 행동(예: 왼쪽으로 이동, 오른쪽으로 이동, 가만히 있기) 각각에 대한 예상 보상(Q값)을 출력합니다. 가장 높은 Q값을 가진 행동을 선택하면 됩니다.2. DQN이 도입한 두 가지 주요 기술(1) 리플레이 메모리(Experience Replay)에이전트(인공지능)가 게임을 하면서 경험한 상태-..