Cloud Tech.2015.10.02 10:45

세계적으로 클라우드 서비스를 제공하는 사업자들은 무척 많습니다. 각 사업자들은 각자의 컨셉과 목표를 가지고 클라우드 서비스를 만들고 제공하고 있는데요 아마존의 AWS, 마이크로소프트의 애져(Azure) 등이 대표적입니다. 아마존의 경우 인프라스트럭쳐(IaaS)에 대한 가상화와 클라우드화를 기치로 내걸고 사업을 시작하여 지속적으로 플랫폼의 영역(PaaS)으로 올라오는 중이며 마이크로소프트의 경우 개발자들이 보다 쉽게 개발된 서비스와 코드를 사용자에게 제공할 수 있도록 플랫폼에서 시작하여 인프라스트럭쳐의 영역으로 내려오는 전략을 가져가고 있습니다.


마이크로소프트는 자사의 제품들을 전반적으로 실물 제품에서 가상의 제품, 클라우드화를 지속적으로 진행하고 있기 때문에 이의 연장선상에서 애져의 시장 전략을 가져가고 있습니다. 엊그제 진행된 애져컨(Azure Con)의 키노트에서 마이크로소프트가 꿈꾸는 클라우드 서비스와 방향성을 볼 수 있는 좋은 내용들이 무척 많이 나왔습니다. 그 중에서도 가장 눈에 띄는 것은 아무래도 컨텐츠 전송 부문에서의 협력을 글로벌 CDN 1위 사업자인 아카마이(Akamai)와 한다는 발표가 아닐까 싶습니다.






키노트 세션이었기 때문에 기존의 CDN 을 유지하면서 아카마이의 글로벌 foot-print 를 활용하는 전략인지 아니면 기존의 협력관계였던 EdgeCast 와의 관계를 청산하고 아카마이를 전면에 내세우는 것인지는 자세히 소개되지 않았습니다. 다만 올해 하반기 까지는 제한적으로 고객들을 선별하여 애져 플랫폼 및 상품들과 아카마이를 통한 CDN 을 구현하는 작업을 진행하는 것으로 보이며 일반 고객들이 쓸 수 있는 GA (General Availability)는 내년 초가 되어야 할 것으로 보입니다.





마이크로소프트와 아카마이는 9월 29일 화요일 나란히 이러한 협력관계가 시작되었음을 알리는 공식 블로그 포스팅을 공개했습니다. 클라우드 환경으로 컴퓨팅 자원을 제공하는 회사들, 그 회사들의 서비스를 이용하는 고객들의 공통적인 고민은 "어떻게 글로벌 엔드유저들에게 전송을 빠르게 할 수 있을 것인가?" 입니다. 컴퓨팅 자원을 여러 리전(Region)에 나누어 서비스 하는 것은 쉬운 접근이겠지만 이들의 관리와 형상 유지, 라스트 마일(Last Mile)구간에서 발생하는 속도 이슈에 대한 해결은 쉽지 않은 문제입니다.


이를 위해서 아마존은 클라우드 프론트(Cloud Front)라는 자체 CDN 서비스를 제공하고 애져는 CDN 사업자와의 제휴를 통해 이를 해결하는 비즈니스 모델을 가지고 있습니다. 어떤 접근이 맞고 틀리는지, 혹은 더 좋고 나쁜지는 상황에 따라 다르겠지만 마이크로소프트 애져가 글로벌 1위 사업자인 아카마이와 제휴하여 서비스를 제공하는 것이 더 나은 모델이지 않나 하는 생각이 듭니다.





저작자 표시 비영리
신고
Posted by 노피디
Development2015.09.21 18:06

웹 사이트를 만들때 가장 많이 손이 가는 부분이 어딜까요? 아마도 동일한 원본 이미지를 가지고 다양한 사이즈로 변조하는 작업에 많은 공수가 들어가실 겁니다. 이는 비단 이미지에 대한 변조 공수 뿐만 아니라 이후 유지보수와 관리의 관점에서도 많은 이슈를 낳곤 합니다. 반응형 웹 시대에 미디어 쿼리를 이용하여 뷰포트에 맞는 이미지를 내려주는 것은 필수이다보니 손을 놓고 있을 수도 없는 계륵(?)처럼 느껴지시는 분도 많을 것 같습니다. 물론 아카마이(Akamai)와 같은 컨텐츠 전송 네트워크 사업자에서 제공하는 Front End Optimization 기술을 이용하면 편리하게 실시간 변환이 가능하지만 간단하게 소규모로 서비스를 기획하는 단계에서는 이 역시 쉬운 선택이 되기는 힘듭니다.


오늘 소개해 드리는 TinyPNG 라는 서비스는 API 기반으로 실시간 PNG/JPG 이미지에 대한 가공을 제공하는 곳으로 HTTP 기반의 웹 서비스이다보니 사용하기도 편리하고 비용도 그리 비싸지 않아 연동에 대한 설계만 잘 해두면 쏠쏠하게 이용해볼 수 있는 서비스가 될 것 같습니다. 첫 500개의 이미지 변환에 대해서는 별도 비용이 발생하지 않고 간단히 HTTP 기본 인증 (Basic Authentication) 으로 구성되어 curl 명령만으로도 쉽게 테스트 해보실 수 있습니다. 이마저 번거로운 분들을 위해 간단히 계정을 만들어 시험을 해봤습니다.


TInyPNG 웹 사이트 바로 방문해보기 [바로가기]




귀엽게 생긴 곰 녀석(?)이 맥북을 들고 작업하는 모습이 인상적인 TinyPNG 의 첫 페이지 입니다. 화면의 하늘색 박스에 이름과 이메일 주소만 넣으면 바로 API Key 를 발급받을 수 있는 링크를 메일로 전송해줍니다. 메일로 전달받은 링크를 클릭하면 인증이 완료되며 API Key 와 무료로 사용할 수 있는 이미지 갯수 등이 표시된 페이지로 연결됩니다. 물론 상용으로 등록하고 싶은 분들을 위해 결제정보를 입력할 수 있는 화면도 친절하게 연결되어 있습니다.





화면 가운데 커다랗게 표시된 API Key 는 Basic Authentication 방식의 해싱 값으로 사용될 데이터입니다. ID / PWD 를 이용하지 않고 바로 해싱된 값이 있다는 것은 그냥 헤더에 해당 값이 들어가면 된다는 이야기와 동일하겠죠? 이제 간단하게 curl 을 이용해서 변환을 테스트 해보겠습니다. 왠지 JPEG 는 스펙상 사이즈 조절 등이 쉬울 것 같아 일부러 PNG 파일을 하나 받아서 테스트를 해봤습니다. 잡스옹, 저의 모르모트가 되어주실거죠? ㅇ9응??)




https://api.tinify.com/shrink 주소로 변환할 파일을 업로딩 하면 TinyPNG 에서 파일을 변조한 뒤 변환된 정보와 다운로드 받을 수 있는 경로정보를 JSON 형태의 응답으로 받게 됩니다. 이유는 알 수 없지만 첫번째 리사이즈 시도의 결과물은 두번째 리사이즈 파일과 용량도 동일하고 모든 조건이 같았는데 이상하게 열리지 않더군요. PNG 헤더 등을 점검하는 것은 다소 귀찮아 다시 curl 을 통해 동일한 용량의 동일한 파일을 다운로드 받아 정상적으로 용량이 작게 변경된 것을 확인했습니다. 글을 적으면서 보니 첫번째 시도는 129942 바이트로 JSON 에 기술된 129526 바이트보다 큰 파일이 저장 되었네요. 다시 디렉토리 조회를 해보면 129526 바이트의 정상적인 파일이 내려온 것이 확인됩니다. API 이용시 2차 검증용으로 용량에 대한 확인을 하면 확실할 것 같네요!




단순히 용량을 줄이는 것 이외에 사이즈의 조절 (Crop 등) 에 관한 여러가지 API 옵션이 제공되고 있으며 API 호출시 JSON 형태로 구성하여 Body 영역에 전달하면 됩니다. GET 요청을 하면서 Body 에 정보를 담아 보내는 것이 표준에는 어긋나는 것 같습니다만 일단 TinyPNG 에서는 정상적으로 응답하고 있으니 참고하시기 바랍니다! 이미지 변조가 많은 계절, TInyPNG 등의 서비스로 간단한 이미지 변환은 쉽게 해보시는 것도 관리, 유지보수를 위한 좋은 선택이 될 것 같네요!





저작자 표시 비영리
신고
Posted by 노피디
Cloud Tech.2015.09.15 10:04

대규모의 사용자 트레픽을 소화하기 위해서는 고민해야 할 것들이 많습니다. 서비스 오리진(Origin) 인프라의 유연함과 적절한 스토리지(Storage)을 확보해야 하는 것은 물론이고 갑작스런 사용자 폭주에 대비하여 충분한 대역폭(Bandwidth)도 갖추어야 합니다. 큰 규모의 기업이라면 그나마 이러한 준비를 하기 위한 투자(CapEx)가 가능하겠지만 작은 규모의 기업(SMB, SOHO)이나 스타트업(Start-up)이라면 열악한 인프라를 이용하여 서비스를 시작하는 경우가 많습니다.


하지만 충분한 재원을 이용하여 인프라를 증식(?)하는 방법은 한계가 있습니다. 가장 단적인 예는 "충분한 대역폭" 에서 찾을 수 있습니다. 갑작스런 서비스의 인기몰이나 이슈가 생겼을 때 폭주하는 사용자 트레픽은 그 규모를 가늠하기가 힘듭니다. 또한 일시적으로 발생하는 이런 스파이크(Spike)를 대비한다고 평상시에 이용되지 않는 대역폭을 계약하여 사용하는 것은 운영 비용(OpEx) 관점에서 효과적이지 않습니다. 그렇다면 이런 문제는 어떻게 해결할 수 있는 것일까요?





흔히 컨텐츠 전송 네트워크(Content Delivery Network, CDN)이라 불리우는 서비스들이 그 해답이 될 수 있습니다. 글로벌 1위 사업자인 아카마이(Akamai)를 비롯하여 최근에는 아마존(Amazon)이나 마이크로소프트 애져(Azure) 등 클라우드 서비스들도 필수적으로 CDN 서비스를 제공하고 있습니다. CDN 전문 사업자들 뿐만 아니라 클라우드 인프라를 제공하는 사업자들까지 CDN 상품을 내놓고 있다는 것은 인프라와 전송 네트워크의 조합이 대규모의 사용자 트레픽을 소화하기 위해서 필수라는 의미로 해석해도 크게 틀리지 않다는 이야기입니다.


아카마이는 최근 마이리틀텔레비전의 컨셉으로 마이리틀CDN 이라는 인터렉티브 세션을 운영하고 있습니다. 다음주 화요일인 9월 22일 오후에 한시간동안 CDN 의 기본적인 동작 원리와 어떻게 활용하면 도움이 될지에 대한 프로그램이 방송될 예정이라고 합니다. CDN 서비스를 제공하는 사업자들 별로 저마다의 특징과 차별화 포인트를 가지고 있지만 기저에 깔려 있는 기본적인 스킴은 어느정도 비슷하기 때문에 CDN 에 대한 기본적인 소양을 쌓고 글로벌에서 성공할 미래의 내 서비스를 위해 지식의 폭을 넓힐 수 있는 기회가 될 수 있을거란 생각이 듭니다!


아카마이 마이리틀CDN - "CDN의 원리와 활용 기본" 무료 사전등록 [바로가기]



저작자 표시 비영리
신고
Posted by 노피디
Cloud Tech.2015.09.03 09:34

서비스를 제공하는 사람과 회사는 늘 악의적인 해커의 공격으로부터 서비스 인프라와 사용자들을 지켜야 하는 숙제를 안고 있습니다. 우리 회사의 웹 사이트는 안전한지, 공격이 발생했을 때 어떻게 사용자 정보를 보호할 것인지, 그리고 공격이 지속되는 상황에서 어떻게 서비스를 지속적으로 제공할 수 있도록 할 것인지에 대한 고민을 해야만 합니다. 세계 최대 CDN 공급 사업자인 아카마이(Akamai)는 이런 고민들 중 "지속적인 서비스의 제공" 관점에서 DDoS 공격 발생시 그 여파를 경감시킬 수 있는 보안 사업자를 선택하는 4가지 포인트를 인포그래픽으로 정리하여 공개했습니다.





#1. 위협에 대한 뛰어난 지식을 보유하고 있는가? (Maximal Threat Intelligence)


IT 기술이 발달하는 것과 보조를 맞추어 해커들의 공격 기술도 더욱 정교하게 바뀌고 있습니다. 다양한 계층에서의 공격 (e.g. OSI 7 Layer) 은 물론이고 서비스 인프라의 취약점을 발빠르게 캐치하여 진행하는 공격 등 해커들의 수준이 점점 높아지고 있습니다. 따라서 보안 사업자를 선정함에 있어 이러한 최신의 공격을 잘 이해하고 있는지, 그리고 어떻게 방어해야 할지를 알고 선제적인 조치를 취해줄 수 있는지를 검토해야 한다고 아카마이는 이야기하고 있습니다.





#2. 얼마나 많은 공격을 막아본 경험이 있는가? (Most Front-Line Experience)


음식도 많이 먹어본 사람이 맛집을 잘 찾는 것처럼 해커들의 공격 역시 많이 경험하고 막아본 사업자만이 잘 막을 수 있다는 것은 당연한 사실입니다. 하드웨어 기반의 DDoS 어플라이언스를 도입할때도 늘 중요하게 평가되는 것이 얼마나 많은 기업들이 장비를 도입 했고 사용하고 있는가 입니다. 시대가 클라우드 세상으로 바뀌면서 하드웨어 어플라이언스를 도입하는 것보다는 플랫폼을 이용하면서 플랫폼이 제공하는 방어 도구를 이용하는 경우가 많아지고 있습니다. 아카마이라던가 아마존처럼 글로벌 클라우드 인프라를 운영하는 회사들은 아무래도 이런 부분에서 경험치가 높을 수 밖에 없을 것 같습니다.





#3. 다양한 방법을 이용하여 DDoS 를 경감시킬 수 있는가? (Best Mitigation Capabilities)


해커들의 공격은 매년 규모가 더 커지고 있습니다. 제로데이 취약점을 이용하여 미처 보안 업체들이 패턴 업데이트를 하거나 취약점에 대한 패치가 공급되기 전에 공격이 시작되는 경우도 많습니다. 이런 공격들이 발생했을 때 얼마나 효과적으로 다양한 방법을 이용해서 DDoS 공격을 경감시키고 막을 수 있을 것이냐는 중요한 포인트입니다. 웹 방화벽으로 불리우는 7계층의 WAF 에서부터 IP / TCP 계층에서의 공격 등 다양한 형태의 공격을 대응 하나의 플랫폼으로 대응할 수 있는 기업은 아직 많지 않은 것 같습니다.





#4. DDoS 경감을 위한 인프라의 가용량이 충분한가? (Global Mitigation Capacity)


DDoS 공격이 무서운 것은 서비스 인프라의 자원이 정상적인 서비스를 할 수 없도록 만들기 때문입니다. IT 인프라의 수준이 발달하는 만큼 DDoS 공격의 규모가 커지는 것은 서비스 불가 상태를 만들기 위해 더 많은 공격 자원이 필요하다는 것과 일맥상통하는 부분입니다. 결국 그러한 공격을 받아낼 수 있는 인프라, 플랫폼을 가지고 있지 않은 사업자는 DDoS 에 대한 대비책으로 선택하기는 어려워 보입니다. 순간적으로 수백기가 혹은 테라급의 트레픽이 몰려왔을 때도 문제 없는 플랫폼을 가진 사업자의 선정이 중요한 포인트라 하겠습니다!





서비스를 기획하고 준비하는 단계에서부터 바야흐로 글로벌을 생각해야만 하는 시기입니다. 이는 언제든 대규모의 공격이 발생할 수 있고 이에 대한 대비도 같이 해야한다는 것을 의미합니다. 아카마이, 엣지캐스트, 아마존, 애져 등 많은 클라우드 사업자들은 근래에 보안에 대한 많은 상품과 전략을 발표하고 있습니다. 이는 고객들의 니즈가 보안에 많다는 것을 의미하고 이를 잘 처리할 수 있는 기업이 또 한번의 플랫폼 전쟁의 승자가 될 수 있다는 것을 암시합니다. 여러분의 선택은 어떤 플랫폼인가요...?





저작자 표시 비영리
신고
Posted by 노피디
Cloud & Dev. Story2014.11.11 10:31

정말 오래전부터 이야기가 되어오던 것이 IPv4 자원의 소진입니다. 논리적으로 0.0.0.0 부터 255.255.255.255 까지의 주소를 갖게 되는 IPv4 는 한정된 IP 갯수로 인해 근래에 폭발적으로 증가하는 인터넷 접속 기기들을 소화하지 못할 것이라는 것이 그 내용입니다. 하지만 할당은 되었으나 사용되지 않는 IP 자원의 재활용과 NAT 등의 기술을 이용하여 사설 IP 를 통해 IP  자원이 절약되면서 상당기간 그 소진이 늦춰져 온것이 사실입니다.


하지만 최근 폭발적으로 증가하는 기기에 대한 이슈로 인해 IPv6 의 적용이 더이상 늦춰져서는 안될 것이라는 것이 많은 전문가들이 내놓는 공통적인 의견입니다. 정말로 이제는 IPv4 가 소진되었다는 이야기도 여기저기서 흘러나옵니다. 다행인것은 이런 분위기에 맞장구라도 치듯 IPv6 를 통한 인터넷 트레픽이 점차 증가하고 있다는 점입니다. 문제는 과연 우리는 IPv6 의 적용을 위하여 무엇을 고민했고 준비해왔냐 하는 것이 아닐까 싶습니다.




아카마이가 제공하고 있는 IPv6 트레픽 현황 페이지에 따르면 지난 3년간 IPv6 를 통해 발생한 인터넷 트레픽은 약 6배 정도 증가한 것으로 나타납니다. 아직까지 IPv4 를 통한 트레픽에는 한참 미치지 못하는 숫자이지만 하루에 IPv4 를 통한 트레픽 대비하여 10% 정도의 수준에 이르렀다는 이야기도 언뜻 기사에서 봤던 것 같습니다. 이제 IPv6 는 기술적이고 이론적인 이야기가 아니라 현실의 이야기가 되어가고 있는 것입니다.




아시아 지역은 상대적으로 북미 등에 비해서 IPv6 에 대한 적용이 낮은 것으로 데이터는 이야기하고 있습니다. 측정 시점에 따라 북미 지역은 5~60만건의 IPv6 요청이 들어오는 반면 아시아 지역에서는 피크일떄도 4만건에 이르지 못할 정도로 규모 자체가 작은 것 같습니다. 물론 북미 지역의 인터넷 트레픽 총량과 아시아 지역의 그것을 비교해봐야 하겠지만 자칫 IPv6 로의 이전이 늦어지면서 이슈가 되지는 않을까 우려되기도 합니다.


IPv6 인터넷 트레픽 현황 보러 가기 [바로가기]

 

저작자 표시 비영리
신고
Posted by 노피디
Cloud Tech.2013.12.17 09:09
클라우드는 그 개념이 등장한지 꽤 오랜 시간이 지났지만 여전히 명쾌한 정의를 내릴 수 있는 사람이 드물다. 그나마 가장 합리적인 정의를 내려보자면 하드웨어, 소프트웨어, 네트워크를 추상화하여(가상화) 다수의 사용자가 함께 사용할 수 있는(멀티 테넌시) 유연한 플랫폼을 일컫는 정도가 될 것 같습니다.

아마존 웹 서비스(AWS)를 비롯하여 우리나라의 SK텔레콤 T cloud biz, KT 의 uCloud 등을 통해 특정 데이터센터 기반의 서비스 인프라에 대한 클라우드 서비스는 많이 대중화가 되었습니다. 그런데 이런 인프라의 가상화가 커버하기 힘든 영역이 있으니 그것은 바로 네트워크 영역입니다. 클라우드 서비스를 사용하거나 제공하는 사람들의 공통적인 고민은 늘 네트워크로 귀결됩니다

사진출처 : VR Media (http://vrmedia.com.sg/2013/02/26/akamai-increases-web-security-with-kona-site-defender/)

 
네트워크는 데이터센터 내부 뿐만이 아니라 공용 인터넷 망에 대한 고민을 함께 해야 하기 때문에 어렵습니다. 아마존, SK텔레콤, KT와 같은 클라우드 사업자들이 유연한 듯 하면서도 결국 Region 이나 서비스 존에 대한 제약이 발생하는 이유는 바로 네트워크 때문이기도 합니다. 클라우드 자원과 네트워크의 이슈는 다른 포스팅에서 한번 이야기 하기로 하구요, 오늘은 보안 관점에서 클라우드 기반 보안 서비스를 이야기 해보고자 합니다.

많은 하드웨어 기반 네트워크 보안 장비를 개발하는 회사들은 최근 클라우드 기반의 서비스를 많이 출시하고 있습니다. 설치된 하드웨어를 정기적인 펌웨어 업데이트로 성능을 개선하고 업데이트 하는 것이 아니라 실시간으로 하드웨어들이 찾아내는 새로운 위험 요소들을 중앙의 분석 서버로 보내어 이슈를 확인하고 문제의 심각도에 따라 해당 하드웨어 벤더의 제품을 사용하는 전세계 유저들에게 바로 배포하는 등의 일이 바로 그것입니다. 

보안 장비 벤더들의 초기 움직임은 자사의 장비를 이용하는 고객들만을 대상으로 서비스를 제공하는 수준이었지만 최근 DDoS 방어 전문 기업인 아르보(Arbor)는 유관 업계들과 함께 클라우드 시그널링 연합(CSC)이라는 것을 구축하고 회원사의 장비를 이용하는 고객사들을 지역 단위의 네트워크로 묶어 효과적으로 DDoS 공격을 방어하고 악의적인 트레픽을 차단하는 솔루션을 내놓았습니다.
 


아르보가 이와 같은 접근 방식을 선택한 것은 DDoS 를 비롯하여 현대의 악의적인 공격들은 공격의 시작점부터 접근 루트 등을 명확하게 한정짓는 것이 힘들기 때문입니다. 공격은 악성 코드에 감염된 수십대에서 수천대, 수만대에 이르는 사용자 단말(PC, 스마트폰 등)에서 시작되고 이들이 서버를 공격하는 루트는 다양할 수 밖에 없습니다. 이런 공격을 서버 바로 앞단에서 하드웨어 장비로 막는 것은 한계가 있습니다. 하드웨어 장비들은 소화할 수 있는 트레픽의 총량이 정해져있고, 이 한계를 넘어 장비가 폭주하는 수준에 이르면 네트워크 전체의 다운을 막기 위해 바이패스(By-Pass)하는 것이 일반적입니다.

이런 현상을 막기 위해서는 공격이 시작되는 지점을 찾아서 서버 근처로 접근하지 못하도록 하는 것이 중요합니다. 이를 위해서는 전세계에 퍼져있는 공격 차단점을 확보하는 것이 중요하며 아르보는 자사와 경쟁 보안 업체들이 가지고 있는 장비를 이용하여 글로벌 풋 프린트(Foot Print)를 확보하는 방법으로 접근을 하고 있습니다. 이런 형태의 클라우드 기반 보안을 가장 진일보시켜 서비스하고 있는 곳은 사실 아카마이입니다.

 
1990년대 후반부터 아카마이가 집중해왔던 사업은 CDN(Content Delivery Network)입니다. 엔드유저에게 보다 가까운 위치에 캐시서버를 배치하여 원본 서버가 가지고 있는 컨텐츠를 보다 빠르게 전달하는 것이 CDN 의 기본 원리입니다. 사용자의 대규모 트레픽을 수용하고 서비스 하기 위해서는 전세계에 가능한 많은 서버를 배치해야 하는데, 아카마이는 CDN 을 위해 전세계에 14만대에 이르는 서버를 배치하고 서비스를 제공하고 있습니다.

아카마이가 최근 강하게 시장에 어필하고 있는 보안 상품인 코나 사이트 디펜더(KSD, Kona Site Defender)는 바로 이런 글로벌 풋 프린트를 이용한 보안 서비스입니다. 아르보와 같은 하드웨어 기반 기업들은 악성 트레픽 차단 지점을 늘리기 위해 제조사들과 연합했다면 아카마이는 단일 플랫폼 위에서 서비스를 제공하기 때문에 사용자 관점에서 더 나은 경험을 제공할 수 있다는 장점이 있습니다.

악의적인 공격을 막는 방법은 정말 다양합니다. 아르보의 CSC나 아카마이 코나 사이트 디펜더는 기본적으로 넓은 커버리지를 이용하여 악성 트레픽의 인입 자체를 막겠다는 컨셉입니다. CSC의 경우 기술적인 스펙을 조금 더 확인해봐야 겠지만, 아카마이의 경우 악성 공격으로 인해 접점의 서버가 다운되더라도 해당 지역에서 동일한 역할을 수행하는 서버가 트레픽을 분산 처리할 수 있기 때문에 가용성이 상당히 높은 것이 장점입니다
 


DDoS 와 같은 대규모 공격을 막는 또다른 방법 중 하나는 악성 트레픽 발생시 이를 처리하는 전담 서버쪽으로 데이터의 흐름을 변경한 뒤 정상적인 트레픽을 필터링해 서버로 전달하는 방법입니다. 이같은 방식의 서비스를 스크러빙(Scrubbing) 서비스라고 하고 시장에서 가장 큰 규모의 마켓을 쥐고 있는 업체가 바로 PROLEXIC 입니다. 아카마이는 최근 PROLEXIC 에 대한 인수를 발표하며 기존 코나 사이트 디펜더에 더하여 클라우드 기반 보안 시장을 수성하겠다는 의지를 표명한바 있습니다.

방화벽이나 DDoS 하드웨어를 이용한 인프라의 보호는 보안의 시작입니다. 하지만 이것 만으로는 소화할 수 없는 이슈들이 많이 있습니다. 아카마이, 아르보는 악성 공격을 근원적으로 차단하는 방법에 대한 가이드를 기업들에게 던지고 있습니다. 제대로 된 악성 공격 방어를 고민하고 있다면 이런 기업들이 제공하는 서비스의 개념을 잘 이해하는 것이 중요할 것 같습니다.

 
- NoPD - 

저작자 표시
신고
Posted by 노피디
Cloud Tech.2013.11.19 18:11
지난 10월 진행되었던 아마카이 Edge 2013 컨퍼런스에서 참 중요한 발표가 하나 있었다.
그동안 퍼블릭 인터넷 구간에만 한정되었던 네트워크 퍼포먼스의 최적화를
아카마이가 시스코와 함께 기업 네트워크로 확장할 수 있는 얼라이언스를 발표했기 때문.

참고자료
1. http://www.cisco.com/en/US/solutions/collateral/ns1015/ns1247/white-paper-c11-729752.pdf
2. http://www.akamai.com/cisco



비싼 MPLS 망이나 가속 / QoS 보장이 되지 않는 WAN 구간을 쓸 것이냐?
아니면 Cisco ASR 장비를 기반으로 아카마이의 글로벌 네트워크를 쓸 것이냐?
글로벌화를 꿈꾸는 기업들과 지사/사무소 네트워크 연결이 이슈인 요즘,
아카마이 네트워크와 시스코 어플라이언스의 조합은
엔터프라이즈들에게는 나쁘지 않은 선택이 될거라는 생각이 드네요!

물론 보안부터 시작해서 넘어야 할 산은 참 많지만
검증된 플랫폼에 살짝~ 승선하는 것은 시행착오를 줄이는 최적의 코스..!

- NoPD - 
저작자 표시
신고
Posted by 노피디
Cloud Tech.2009.09.24 07:53
가상화 전문 기업인 Citrix 의 iForum 2009 행사가 어제 삼성동 그랜드 인터컨티넨탈 호텔에서 있었습니다. GoTo 시리즈 런칭행사 참석후 Citrix 행사는 몇 년만에 참석하는 것이라 많이 설레더군요. 생각보다 행사장이 넓지는 않았지만 참석자들의 열기는 무척 뜨거웠던 행사였습니다.


Citrix 의 이번 행사는 자사의 제품군에 대한 일반적인 소개와 새롭게 출시되는 제품들의 특징을 설명하는 자리였습니다. 많이들 아시는 것처럼 Citrix는 어플리케이션 가상화 XenApp, 데스크탑 가상화 XenDesktop, 서버 가상화 XenServer, 그리고 곧 정식 출시될 XenClient 까지 다양한 가상화 제품군을 보유하고 있습니다. 여기에 NetScalar 인수후 시장 공략에 한참인 네트워크 하드웨어 제품군 까지 말 그대로 End-To-End 를 구성해줄 수 있는 기술 중심의 기업입니다.

NoPD 군이 가장 관심있는 분야는 역시 XenApp 이었는데요, 이번에 새롭게 소개된 XenApp 의 Feature Pack 2 에서는 군침을 흘릴만한 다양한 기능들이 추가가 되었습니다. 그 중 단연 돋보이는 것은 HDX 기술이더군요. HDX 기술은 High Definition user eXperience 의 약어라고 합니다. 사용자의 경험을 HD 퀄리티로 보장해주겠다는 기술입니다. HDX 하위에 여러가지 카테고리로 기술이 나뉘어 지는데, 일일이 기억하기는 조금 힘들군요.


HDX 기술의 핵심은 최적화된 ICA Client 와 로컬 자원을 이용한 가상화 기술의 구현입니다. 기존의 어플리케이션 가상화 기술들이 정적인 컨텐츠에 강했던 반면 플래시, 동영상과 같은 멀티미디어 컨텐츠의 활용에는 문제가 많았던 것이 사실입니다. HDX 기술은 DirectX, OpenGL 과 같은 로컬의 지원을 받아서 이러한 멀티미디어 컨텐츠를 보다 자연스럽게, 보다 로컬 PC 에 가깝게 구현해 준다고 보시면 됩니다. 예를 들어 YouTube 의 Flash 동영상을 어플리케이션 가상화로 감상하는 건 굉장한 인내심을 요구했던 반면 새로운 버전에서는 90% 이상 일반적인 수준에 다가섰다는 느낌입니다.

그런데 이거 왠지 어디서 많이 들었던 이야기 같지 않습니까? 네, 그렇습니다. 윈도우 서버 2008 R2 의 RDS (Remote Desktop Service)에 탑재될 예정이었다가 결국은 빠져버린 로컬 리소스를 활용한 멀티미디어 컨텐츠의 활용과 동일한 맥락입니다. 혹시나 마이크로소프트가 전략 파트너사인 Citrix 의 새로운 제품군을 위해서 한발 뒤로 물러선 것은 아닌가 하는 생각이 뇌리를 스쳐 지나갔습니다. 여튼...


두개의 트랙으로 진행된 기술 세션에서 LG CNS 의 XenDesktop 전사 구축(예정) 사례가 사람들의 관심을 많이 끌었습니다. 현재 일부 사용자들 (수백명 수준) 이 VDI 환경을 쓰고 있는데 내년 초에 1만여명에 이르는 CNS 전 임직원이 VDI 환경으로 넘어갈 예정이라고 하더군요. 국내 최대 규모의 VDI 환경 사례라 관련 업계 사람들의 이목을 집중 시키는 건 당연한 수순이라고 생각되네요. 별다를 건 없지만, VDI 로 가면서 필연적으로 이슈가 되는 부분들을(HR 시스템과의 연계, 사내/사외 이동을 위한 해법 등) 풀어내고 있는 CNS 에 박수를 보내주고 싶습니다. (참고로, 전 임직원이 "넷북+21인치 모니터" 의 구성으로 개인 OA 지급을 한다고 합니다)

간만에 뜨거운 행사를 다녀와서 기분이 무척 좋습니다. 더 분발할 수 있는 좋은 Refresh가 된 것 같네요. Citrix 관계자 분들 수고 하셨습니다.

- NoPD -
신고
Posted by 노피디

티스토리 툴바