Paper
-
Relay Policy Learning (RPL) 리뷰Paper/Reinforcement Learning 2019. 11. 28. 17:24
Relay Policy Learning RPL 논문 을 번역하며 요약해보았다. Introduction multi-stage, long-horizon robotic tasks 를 해결하기 위한 Relay policy Learning (RPL) 방법을 제안했고 2 phase로 되어있다. Goal conditioned hierarchical policy를 생성하는 Relay Imitation Learning(RIL) stage 생성된 Policy를 fine tuning 하는 Relay Reinforcement Fine tuning(RRF) stage 기존의HRL은 temporal abstraction을 도입하므로써 long-horizon problem을 풀 수 잇는 실마리를 제공했다. 하지만 아래와 같은 pr..
-
Attention is all you need 리뷰Paper/Learning based method 2019. 10. 29. 13:11
Attention is all you need 참조1 참조2 참조3 참조4 1. Contribution global dependency를 잡아내고 횡방향으로 병렬 연산을 가능하게 하여 학습속도를 높임 RNN 모델을 Attention으로 대체 가능하게 함 2. Background 2.1. ByteNet sequential 한 연산을 줄이자는 목표 hidden representation을 병렬처리하기 위해 CNN활용 distant position 에 있는 dependency는 많은 연산을 필요로 함 2.2. Self Attention = Transformer 이전의 RNN과 함께 사용되던 attention의 경우에는 인코더 측의 hidden variable과 디코더 측의 hidden variable간의 유사..
-
Application of hybrid A starPaper/Rule based method 2019. 9. 24. 19:02
Practical Search Techniques in Path Planning for Autonomous Driving이라는 논문을 읽고 리뷰를 작성했다. 2007년 DARPA Urban challenge에서 Stanford의 레이싱 팀인 Junior가 주차 환경에서 성공적인 navigation을 한것에 대한 핵심방법으로 planning을 하는데 50-300ms 정도로 realtime으로 동작할 수 있었다고 하여 논문을 찾아보았다. 주된 공헌은 기존의 hybrid A star에서의 단점을 해결했다고 한다. 참조 hybrid A* Reeds-Shepp model Two heuristics non-holonomic without obstacles 자동차 운동의 제약사항을 고려하고 장애물이 없다는 가정하에서..
-
Modeling integrated Lane changing behaviorPaper/Rule based method 2019. 9. 10. 20:48
소개 2003년 Transportation Network Modeling 학회 논문으로써 인용수가 192회이다, 논문을 고른 이유 Rule based 방법론으로 lane change를 어떻게 modeling 했고 어느정도의 performance를 가지며 어떤 기준으로 그것을 측정하는지 한계점이 무엇인지를 알아보기 위해서 이다. 소개 차선변경 모델은 보통 2 step으로 진행된다. 차선변경을 생각할지 결정 차선변경을 실행할지 결정 대부분의 모델들은 2가지로 분류된다. MLC (Mandatory Lane Change) 현재 차선을 떠나야 할때 수행된다. DLC (Discretionary Lane Change) 현재 주행조건을 개선 하고자 할 때 수행된다 = 목표차선이 더 좋은 조건이라는 것은 알지만 차선변경..