배열을 처리하는 세 가지 방법 (chaining, reduce, for loop)
개발을 하다 보면 배열 데이터를 가공할 일이 정말 많은데요.저는 평소에는 filter, map 같은 메서드 체이닝 방식을 주로 사용합니다. 읽기 쉽고, 데이터 흐름이 단계별로 명확하게 보이기 때문이죠.
하지만 어떠한 계기로(?) 인해 이런 의문을 가지게 되었습니다..
"만약 데이터가 수천만 건으로 늘어난다면? 배열을 여러 번 순회하는 체이닝 방식이 성능 병목을 일으키지는 않을까?" 혹은 "reduce 하나로 합치는 게 베스트일까?"
이 질문을 ...
ddoit.hashnode.dev3 min read