님, 안녕하십니까?
Red Hat 계정에 로그인
아직 등록하지 않으셨습니까? 등록해야 하는 이유:
- 한 곳에서 기술 자료 문서를 탐색하고, 지원 사례와 서브스크립션을 관리하고, 업데이트를 다운로드 할 수 있습니다.
- 조직 내의 사용자를 보고, 계정 정보, 기본 설정 및 권한을 편집할 수 있습니다.
- Red Hat 자격증을 관리하고 시험 내역을 조회하며 자격증 관련 로고 및 문서를 다운로드할 수 있습니다.
Red Hat 계정으로 회원 프로필, 기본 설정 및 자신의 고객 상태에 따른 기타 서비스에 액세스할 수 있습니다.
보안을 위해, 공용 컴퓨터 사용 중에 Red Hat 서비스 이용이 끝난 경우 로그아웃하는 것을 잊지 마십시오.
로그아웃Red Hat 블로그
Blog menu
The real estate bubble of 2008 made shockwaves worldwide. This was so significant an event that the US economy only this year was determined to have recovered to pre-bubble levels. But this event also resulted in all sorts of other shockwaves -- regulatory ones.
To address these regulatory needs for Wall Street, Red Hat Storage teamed up with Hortonworks to build an enterprise grade big data risk management solution. At the recent Strata+Hadoop World, Vamsi Chemitiganti (chief architect, financial services) presented the solution in a session -- which you can see for yourself at the bottom of this post.
The slide does a great job of breaking down the workflow. To spare your eyes, here are the steps:
- The Red Hat JBoss Data Grid and Hortonworks Data Platform (HDP) are primed with Real Time and Batch Loads
- Data Transformations take place in HDP. Data flows back and forth between the Red Hat JBoss Data Grid in Memory Compute Tier and HDP
- In-Memory calculations take place within Red Hat JBoss Data Grid. Results are routed to HDP where Interactive and Batch job loads
- Interactive SQL Queries and Batch Job Execution take place within HDP
- Business users leverage business intelligence tools to query data interactive in HDP and/or a relational database management system (RDBMS).
Check out the full session right here: