SlideShare une entreprise Scribd logo
1  sur  26
Télécharger pour lire hors ligne
SDECofflinecommunity

1.NoSQLbenchmark
            NHN
            
            저장시스템개발팀
            김효
테스트환경
      CPU:IntelXeonL5640,12Core(Nehalem6CoreX2CPU)2.27GHz
      RAM:16GB
      CentOSrelease5.3(Final)

   TestCase1                             • 데이터Insert
                                                                 • Insertkey는랜덤(FNVhash32이용)
      Insert                                             • DB는비어있는상태



         TestCase2                       • 임의로Read,Update수행
                                                                 • Read:Update비율은50:50
                                                                 • DB는50,000,000row의데이터가저장된상태(Size=약60GB)
Read/Update                                      • Key분포는Zipfian


   TestCase3                             • Read만수행
                                                                 • DB는50,000,000row의데이터가저장된상태(Size=약60GB)
      Read                                       • Key분포는Zipfian


                                                                 • 임의로Read,Insert수행(50,000,000row에서추가로row추가)
   TestCase4                             • Read:Insert비율은50:50
   Read/Insert                                           • DB는50,000,000row의데이터가저장된상태(Size=약60GB)
                                                                 • Key분포는Zipfian

                                                                 • 테스트시간:1시간or30분(테스트종류별로다름)
                                                                 • 각각의테스트를Thread128인경우에대해수행
       공통사항                                      • 모든Operation은1Row전체에대해읽기나쓰기를한다.
                                                                 • 1Row=Key+10FieldsX100Bytes(RandomString)=약1000Bytes


                                                                               2/10
Cassandra-0.7.6-2
Keycache=MAX(메모리한계내에서최대로)
• Rowcache=사용하지않음(default)
• ReplicationFactor=3
• CommitLogSync=Periodicmode(default)
• ConsistencyLevel
               Read,Write:LevelOne



                                       YCSB
                                       Client


                                                                                 cassandra                             cassandra              cassandra
                                                                                (ReplicaSet)                  (ReplicaSet)   (ReplicaSet)




                                                                                                               3/10
MongoDB-1.8.1
OplogSize=100G(default:디스크의5%)
• ReplicaSet:3




                                      YCSB
                                      Client



                                                                                 mongod                                mongod                 mongod
                                                                               (ReplicaSet)                  (ReplicaSet)   (ReplicaSet)
                                                                                 Primary                              Secondary              Secondary




                                                                                                              4/10
HBase-0.90.3
Hadoop-0.20-append(durableappend패치된branch)
• HBaseClientcache:사용안함
• HBaseHeapSize=8G
• HDFSReplicationFactor=3



                             YCSB
                             Client




                                                              HDFS                      HDFS                HDFS
                                                            DataNode                  DataNode    DataNode


                                                                                                                                   HBase
                                                             HDFS                      Hadoop
                                                                                                                                 MasterServe
                                                           NameNode                   Zookeeper
                                                                                                                                      r

                                                               Hbase                             Hbase                Hbase
                                                               Region                            Region               Region
                                                               Server                            Server               Server




                                                                                       5/10
테스트결과

25000	
  
                                                                                     Average	
  TPS	
  
20000	
  


15000	
                                                                                                                                                                     Cassandra	
  

                                                                                                                                                                            Hbase	
  
10000	
  
                                                                                                                                                                            MongoDB	
  

 5000	
  


        0	
  
                           Insert	
            Read	
  (Compac5on	
  전)	
     Read	
  (Compac5on	
  후)	
        Read/Update	
                 Read/Insert	
  



   •            Cassandra,Hbase의경우SSTable의Compaction정도에따라Read의성능차이가있음
   •            Read의경우,Compaction전과후의테스트결과
   •            Read/Update,Read/Insert의경우,Compaction후의테스트결과만첨부

   •            MongoDB의경우Update와Insert가다른명령이어서성능차이있음
   •            반면,Cassandra,Hbase의경우Update와Insert가내부적으로같은명령으로성능차이거의없음



                                                                                            6/10
Insert
40000	
  

30000	
  
                                                                                                           TPS	
  변화(10초 간격)
                                                                                                                                                      Cassandra	
  
20000	
  
                                                                                                                                                      Hbase	
  
10000	
  

      0	
  


                                                                                      MongoDB	
  
30000	
  

20000	
  
                                                                                                                                                      MongoDB	
  
10000	
  

       0	
  

                                                                                                                           25000	
  
               •    50,000,000row가Insert되는속도에따라그래프의길이가다름   20000	
  
                                                                                                                                                          Cassandra	
  
                                                                                                                           15000	
  
               •    주의:두그래프의세로축스케일이다름                              10000	
                        Hbase	
  
               •    테스트시간:50,000,000row가Insert될때까지                  5000	
                        MongoDB	
  
                                                                                                                                 0	
  
                                                                                                                                         Insert	
  

                                                                                            7/10
Read
3500	
  
3000	
  
2500	
  
                                                                                                                     Compac8on	
  전
                                                                                                                                                                            Cassandra	
  
2000	
  
                                                                                                                                                                            Hbase	
  
1500	
  
                                                                                                                                                                            MongoDB	
  
1000	
  
 500	
  
     0	
  


6000	
  
5000	
                                                                                                                     Compac8on	
  후	
  
4000	
                                                                                                                                                                Cassandra	
  

3000	
                                                                                                                                                                Hbase	
  

2000	
                                                                                                                                                                MongoDB	
  
1000	
  
      0	
  

                                                                                                                                      5000	
  
              •  Cassandra,Hbase의Compaction전후의TPS변화와                                          4000	
  
              MongoDBTPS변화의비교그래프              3000	
                                        Cassandra	
  
                                                                                                                              2000	
                                        Hbase	
  
              •  주의:두그래프의세로축스케일이다름                                            1000	
  
              •  테스트시간:1시간                                                                                                                          MongoDB	
  
                                                                                                                                           0	
  
                                                                                                                                                   Read	
  (Compac5on	
  
                                                                                                                                                             후)	
  
                                                                                                 8/10
Read/Update

        9000	
  

        8000	
  

        7000	
  

        6000	
  
                                                                                                                                                                            Cassandra	
  
        5000	
  
                                                                                                                                                                            Hbase	
  
        4000	
  
                                                                                                                                                                            MongoDB	
  
        3000	
  

        2000	
  

        1000	
  

             0	
  


                                                                                                                                                 6000	
  
                                                                                                                                                 5000	
  
•  Cassandra,Hbase의경우Compaction후의테스트결과
                                                                                                                                                 4000	
                                 Cassandra	
  
•  Hbase의경우새로Update되는데이터로인해Compact되지않은
                                                                                                                                                 3000	
  
SSTable증가로시간이지날수록완만한TPS감소를보인다.                                          Hbase	
  
                                                                                                                                                 2000	
  
                                                                                                                                                                                MongoDB	
  
                                                                                                                                                 1000	
  
•  테스트시간:1시간
                                                                                                                                                      0	
  
                                                                                                                                                              Read/Update	
  


                                                                                                     9/10
Read/Insert
 8000	
  

 6000	
  
                                                                                                                                         Cassandra	
  
 4000	
  
                                                                                                                                         Hbase	
  
 2000	
  

         0	
  



                                                                                MongoDB	
  
1000	
  


 500	
                                                                                                                                   MongoDB	
  


      0	
  


                                                                                                          6000	
  
 •  Hbase의경우완전히Compaction후테스트하면
 약간의averageTPS증가예상됨       4000	
                                 Cassandra	
  

                                                                                                                                                 Hbase	
  
 •            주의:두그래프의세로축스케일이다름                   2000	
  
 •            테스트시간:30분                                                                                          MongoDB	
  
                                                                                                               0	
  
                                                                                                                       Read/Insert	
  

                                                                                          10/10
SDECofflinecommunity

2.NoSQL장애테스트
            NHN
            
            저장시스템개발팀
            김효
Cassandra­–level1
50000
45000
                                                          ReadWorkload,ConsistencyLevelONE
40000
35000                                신규노드투입
30000         노드제거
25000
20000
15000
10000
  5000
          0


                            -Read,Read/InsertWorkload모두비슷한양상
                            -  초기화된신규노드추가시비정상적으로급격히TPS가높아진다.
                            -  1~2분경과후TPS가0으로떨어진다.
                            -  이후주기적으로TPS가급격히올라갔다가0으로떨어지기를반복하면서
                            점차TPS가0인상태가길어진다.



                                                                                          12/10
Cassandra­–level1

30000
                                                                                                                                                                  TPStarget,3000제한
25000

20000

15000

10000

  5000

          0
                      1
                                  4
                                              7
                                                          10
                                                                       13
                                                                                    16
                                                                                                 19
                                                                                                              22
                                                                                                                           25
                                                                                                                                        28
                                                                                                                                                     31
                                                                                                                                                                  34
                                                                                                                                                                               37
                                                                                                                                                                                            40
                                                                                                                                                                                                         43
                                                                                                                                                                                                                      46
                                                                                                                                                                                                                                   49
                                                                                                                                                                                                                                                52
                                                                                                                                                                                                                                                             55
                                                                                                                                                                                                                                                                          58
                                                                                                                                                                                                                                                                                       61
                                                                                                                                                                                                                                                                                                    64
                                                                                                                                                                                                                                                                                                                 67
                                                                                                                                                                                                                                                                                                                              70
                                                                                                                                                                                                                                                                                                                                           73
                                                                                                                                                                                                                                                                                                                                                        76
                                                                                                                                                                                                                                                                                                                                                                     79
                                                                                                                                                                                                                                                                                                                                                                                  82
                                                                                                                                                                                                                                                                                                                                                                                               85
                                                                                                                                                                                                                                                                                                                                                                                                            88
                                                                                                                                                                                                                                                                                                                                                                                                                         91
                                                                                                                                                                                                                                                                                                                                                                                                                                      94
                                                                                                                                                                                                                                                                                                                                                                                                                                                   97
                                                                                                                                                                                                                                                                                                                                                                                                                                                                100
                                                                                                                                                                                                                                                                                                                                                                                                                                                                              103
      -  ReadWorkload의장애상황을테스트,테스트툴에서최대TPS를3000으로제한
      -  두번의peak는갑작스런TPS증가를테스트툴에서제한하지못한문제로
      CassandraCluster상태에는영향을주지않음
      -  TPS를3000으로제한할경우정상작동




                                                                                                                                                                                                                                     13/10
Cassandra­–levelquorum
                    노드제거
2500


                                           신규노드투입   nodetool­–repair수행
2000


1500


1000


  500


        0




                                             -  TPS가급격히높아지는현상발생하지않음
                                             -  빈데이터를반환하지않음
                                             -  한노드제거시,짧은시간이경과한후TPS감소를보인다.
                                             -  nodetool의repair수행시시간이지날수록TPS가감소한다.
                                             2시간테스트할때,테스트종료직전약500TPS



                                                                                                                         14/10
MongoDB

•  한노드를제거하여M-S구성이된상태에서Master를제거할경우
    •  남아있는Secondary는여전히Secondary로남아있으며,
    Master가되지못해operation수행하지못함
    
•  Master노드에5,000,000row(약5기가)에해당하는데이터를Insert
    •  Master노드의row수count후,Master제거
    •  1262617row

•  MongoDB는Asynchronous하게M-S-S를유지하며,
    •  Insert/Update중장애가발생하면,데이터유실우려가있음.




                                                        15/10
HBASE
4000
                      RegionServer제거                                                               RegionServer제거
3500                                                                             RegionServer재시작

3000

2500

2000

1500

1000

500

   0


       - RegionServer를제거할경우약2분가량TPS가0으로떨어진다.
       - 일정시간(약2분)경과후TPS가올라가면서정상작동한다.
       하지만,평균TPS는감소한상태로지속
       -정상상태:약3500TPS
       -한노드를제거한상태:약2000TPS
       - RegionServer를재시작할경우,평균TPS가올라가초기와비슷한성능을보임
       
       -전체RegionServer가일시적으로정지하는현상에대해원인파악하지못함

                                                                      16/10
HBASE
4000

3500                                                           DataNode제거   신규DataNode투입

3000

2500

2000

1500

1000

500

   0


       - DataNode를제거할경우순간적으로TPS가떨어진다.
       - 이후,TPS가조금씩높아져일정하게유지된다.
                   - 정상상태:약3500TPS
                   - DataNode를제거한상태:약2000TPS
       - 초기화된DataNode를추가하면TPS가더낮아진다.
                   - 약700~1500TPS사이를진동
                   - 새로투입된DataNode를복구하기때문으로추정


                                                                              17/10
SDECofflinecommunity

   3.NoSQL동향
        NHN
        
        저장시스템개발팀
        김효
BIGdata


globaloutputofdata

1.8zettabyte
1billionterabyte




                   90%
          withinthepast2years


                                     19/10
Oracle
                             OracleNoSQLDatabase




     BerkelyDBJavaEditionbased
                                                      Log-structuredstorage
Paxosprotocolforelection
                                                                       3-coyplication
                        Singlemaster
                                                       20/10
IBMDB2



             IBMDB2toincludeNoSQLFeatures

basedonIBM’sRationalJazztripplestoresolution

         DB2,Informix고객의추가비용없이이용




                                                21/10
Amazon
            AmazonDynamoDB




              Dynamopaperin2007
                  SSDhardwaredisk
LessonsandlearnedfromsimpleDB:
        ScaleandPredictable
                   Kindledocuments
                                   22/10
Hadoop

IBM
Oracle
HP
EMC
                                                         Steadyseller
                                                         1.0.0released
Microsoft
windowserverandAzure
ODBCdriverforHive
Hadoop-to-SQLServerconnector




                                         23/10
Etc

•  MongoDB
    •  duallicense:AGPL,commercial
    
•  Cassandra
    •  CassandraSQL:CQL(-10%performancethanRPC)

•  Couchbase
    •  CouchbaseServer2.0CouchbaseMobileSyncpoint

•  Redis,Riak
    •  notshowupmuch




                                                         24/10
Summary


•  NoSQL은더이상신기한것이아니다.


•  Major업체들이뛰어드는시점


•  Hadoop은기술자체에서사용솔루션으로진화


•  최초의NoSQL들의시련예상




                                         25/10
Reference

http://www.oracle.com/technetwork/database/nosqldb/overview/index.html
http://aws.amazon.com/dynamodb/
http://www.allthingsdistributed.com/2012/01/amazon-dynamodb.html
http://arstechnica.com/business/news/2011/10/microsoft-makes-its-move-with-
hadoop-on-azure-and-windows-server.ars


http://www.infoq.com/news/2011/11/MongoDB-Criticism
http://blog.schmichael.com/2011/11/05/failing-with-mongodb/
http://pastebin.com/raw.php?i=FD3xe6Jt






                                    26/10

Contenu connexe

Tendances

pg / shardman: шардинг в PostgreSQL на основе postgres / fdw, pg / pathman и ...
pg / shardman: шардинг в PostgreSQL на основе postgres / fdw, pg / pathman и ...pg / shardman: шардинг в PostgreSQL на основе postgres / fdw, pg / pathman и ...
pg / shardman: шардинг в PostgreSQL на основе postgres / fdw, pg / pathman и ...Ontico
 
003 admin featuresandclients
003 admin featuresandclients003 admin featuresandclients
003 admin featuresandclientsScott Miao
 
Sun jdk 1.6 gc english version
Sun jdk 1.6 gc english versionSun jdk 1.6 gc english version
Sun jdk 1.6 gc english versionbluedavy lin
 
Linux Kernel Extension for Databases / Александр Крижановский (Tempesta Techn...
Linux Kernel Extension for Databases / Александр Крижановский (Tempesta Techn...Linux Kernel Extension for Databases / Александр Крижановский (Tempesta Techn...
Linux Kernel Extension for Databases / Александр Крижановский (Tempesta Techn...Ontico
 
AppOS: PostgreSQL Extension for Scalable File I/O @ PGConf.Asia 2019
AppOS: PostgreSQL Extension for Scalable File I/O @ PGConf.Asia 2019AppOS: PostgreSQL Extension for Scalable File I/O @ PGConf.Asia 2019
AppOS: PostgreSQL Extension for Scalable File I/O @ PGConf.Asia 2019Sangwook Kim
 
10 things i wish i'd known before using spark in production
10 things i wish i'd known before using spark in production10 things i wish i'd known before using spark in production
10 things i wish i'd known before using spark in productionParis Data Engineers !
 
Setting up mongodb sharded cluster in 30 minutes
Setting up mongodb sharded cluster in 30 minutesSetting up mongodb sharded cluster in 30 minutes
Setting up mongodb sharded cluster in 30 minutesSudheer Kondla
 
Tarantool как платформа для микросервисов / Антон Резников, Владимир Перепели...
Tarantool как платформа для микросервисов / Антон Резников, Владимир Перепели...Tarantool как платформа для микросервисов / Антон Резников, Владимир Перепели...
Tarantool как платформа для микросервисов / Антон Резников, Владимир Перепели...Ontico
 
Java memory problem cases solutions
Java memory problem cases solutionsJava memory problem cases solutions
Java memory problem cases solutionsbluedavy lin
 
Cassandra Backups and Restorations Using Ansible (Joshua Wickman, Knewton) | ...
Cassandra Backups and Restorations Using Ansible (Joshua Wickman, Knewton) | ...Cassandra Backups and Restorations Using Ansible (Joshua Wickman, Knewton) | ...
Cassandra Backups and Restorations Using Ansible (Joshua Wickman, Knewton) | ...DataStax
 
Reduce Resource Consumption & Clone in Seconds your Oracle Virtual Environmen...
Reduce Resource Consumption & Clone in Seconds your Oracle Virtual Environmen...Reduce Resource Consumption & Clone in Seconds your Oracle Virtual Environmen...
Reduce Resource Consumption & Clone in Seconds your Oracle Virtual Environmen...BertrandDrouvot
 
Jvm & Garbage collection tuning for low latencies application
Jvm & Garbage collection tuning for low latencies applicationJvm & Garbage collection tuning for low latencies application
Jvm & Garbage collection tuning for low latencies applicationQuentin Ambard
 
Trying and evaluating the new features of GlusterFS 3.5
Trying and evaluating the new features of GlusterFS 3.5Trying and evaluating the new features of GlusterFS 3.5
Trying and evaluating the new features of GlusterFS 3.5Keisuke Takahashi
 
PostgreSQL na EXT4, XFS, BTRFS a ZFS / FOSDEM PgDay 2016
PostgreSQL na EXT4, XFS, BTRFS a ZFS / FOSDEM PgDay 2016PostgreSQL na EXT4, XFS, BTRFS a ZFS / FOSDEM PgDay 2016
PostgreSQL na EXT4, XFS, BTRFS a ZFS / FOSDEM PgDay 2016Tomas Vondra
 
Exactly once with spark streaming
Exactly once with spark streamingExactly once with spark streaming
Exactly once with spark streamingQuentin Ambard
 
Keynote: Apache HBase at Yahoo! Scale
Keynote: Apache HBase at Yahoo! ScaleKeynote: Apache HBase at Yahoo! Scale
Keynote: Apache HBase at Yahoo! ScaleHBaseCon
 
Database High Availability Using SHADOW Systems
Database High Availability Using SHADOW SystemsDatabase High Availability Using SHADOW Systems
Database High Availability Using SHADOW SystemsJaemyung Kim
 
Java 어플리케이션 성능튜닝 Part1
Java 어플리케이션 성능튜닝 Part1Java 어플리케이션 성능튜닝 Part1
Java 어플리케이션 성능튜닝 Part1상욱 송
 

Tendances (20)

PostgreSQL
PostgreSQLPostgreSQL
PostgreSQL
 
pg / shardman: шардинг в PostgreSQL на основе postgres / fdw, pg / pathman и ...
pg / shardman: шардинг в PostgreSQL на основе postgres / fdw, pg / pathman и ...pg / shardman: шардинг в PostgreSQL на основе postgres / fdw, pg / pathman и ...
pg / shardman: шардинг в PostgreSQL на основе postgres / fdw, pg / pathman и ...
 
003 admin featuresandclients
003 admin featuresandclients003 admin featuresandclients
003 admin featuresandclients
 
Sun jdk 1.6 gc english version
Sun jdk 1.6 gc english versionSun jdk 1.6 gc english version
Sun jdk 1.6 gc english version
 
Linux Kernel Extension for Databases / Александр Крижановский (Tempesta Techn...
Linux Kernel Extension for Databases / Александр Крижановский (Tempesta Techn...Linux Kernel Extension for Databases / Александр Крижановский (Tempesta Techn...
Linux Kernel Extension for Databases / Александр Крижановский (Tempesta Techn...
 
AppOS: PostgreSQL Extension for Scalable File I/O @ PGConf.Asia 2019
AppOS: PostgreSQL Extension for Scalable File I/O @ PGConf.Asia 2019AppOS: PostgreSQL Extension for Scalable File I/O @ PGConf.Asia 2019
AppOS: PostgreSQL Extension for Scalable File I/O @ PGConf.Asia 2019
 
10 things i wish i'd known before using spark in production
10 things i wish i'd known before using spark in production10 things i wish i'd known before using spark in production
10 things i wish i'd known before using spark in production
 
Setting up mongodb sharded cluster in 30 minutes
Setting up mongodb sharded cluster in 30 minutesSetting up mongodb sharded cluster in 30 minutes
Setting up mongodb sharded cluster in 30 minutes
 
Tarantool как платформа для микросервисов / Антон Резников, Владимир Перепели...
Tarantool как платформа для микросервисов / Антон Резников, Владимир Перепели...Tarantool как платформа для микросервисов / Антон Резников, Владимир Перепели...
Tarantool как платформа для микросервисов / Антон Резников, Владимир Перепели...
 
Java memory problem cases solutions
Java memory problem cases solutionsJava memory problem cases solutions
Java memory problem cases solutions
 
Cassandra Backups and Restorations Using Ansible (Joshua Wickman, Knewton) | ...
Cassandra Backups and Restorations Using Ansible (Joshua Wickman, Knewton) | ...Cassandra Backups and Restorations Using Ansible (Joshua Wickman, Knewton) | ...
Cassandra Backups and Restorations Using Ansible (Joshua Wickman, Knewton) | ...
 
Bluestore
BluestoreBluestore
Bluestore
 
Reduce Resource Consumption & Clone in Seconds your Oracle Virtual Environmen...
Reduce Resource Consumption & Clone in Seconds your Oracle Virtual Environmen...Reduce Resource Consumption & Clone in Seconds your Oracle Virtual Environmen...
Reduce Resource Consumption & Clone in Seconds your Oracle Virtual Environmen...
 
Jvm & Garbage collection tuning for low latencies application
Jvm & Garbage collection tuning for low latencies applicationJvm & Garbage collection tuning for low latencies application
Jvm & Garbage collection tuning for low latencies application
 
Trying and evaluating the new features of GlusterFS 3.5
Trying and evaluating the new features of GlusterFS 3.5Trying and evaluating the new features of GlusterFS 3.5
Trying and evaluating the new features of GlusterFS 3.5
 
PostgreSQL na EXT4, XFS, BTRFS a ZFS / FOSDEM PgDay 2016
PostgreSQL na EXT4, XFS, BTRFS a ZFS / FOSDEM PgDay 2016PostgreSQL na EXT4, XFS, BTRFS a ZFS / FOSDEM PgDay 2016
PostgreSQL na EXT4, XFS, BTRFS a ZFS / FOSDEM PgDay 2016
 
Exactly once with spark streaming
Exactly once with spark streamingExactly once with spark streaming
Exactly once with spark streaming
 
Keynote: Apache HBase at Yahoo! Scale
Keynote: Apache HBase at Yahoo! ScaleKeynote: Apache HBase at Yahoo! Scale
Keynote: Apache HBase at Yahoo! Scale
 
Database High Availability Using SHADOW Systems
Database High Availability Using SHADOW SystemsDatabase High Availability Using SHADOW Systems
Database High Availability Using SHADOW Systems
 
Java 어플리케이션 성능튜닝 Part1
Java 어플리케이션 성능튜닝 Part1Java 어플리케이션 성능튜닝 Part1
Java 어플리케이션 성능튜닝 Part1
 

En vedette

개인정보 비식별화 기술 동향 및 전망
개인정보 비식별화 기술 동향 및 전망 개인정보 비식별화 기술 동향 및 전망
개인정보 비식별화 기술 동향 및 전망 Donghan Kim
 
Apache Spark Overview part2 (20161117)
Apache Spark Overview part2 (20161117)Apache Spark Overview part2 (20161117)
Apache Spark Overview part2 (20161117)Steve Min
 
제2회 사내기술세미나-no sql(배표용)-d-hankim-2013-4-30
제2회 사내기술세미나-no sql(배표용)-d-hankim-2013-4-30제2회 사내기술세미나-no sql(배표용)-d-hankim-2013-4-30
제2회 사내기술세미나-no sql(배표용)-d-hankim-2013-4-30Donghan Kim
 
Maven build for 멀티프로젝트 in jenkins
Maven build for 멀티프로젝트 in jenkins Maven build for 멀티프로젝트 in jenkins
Maven build for 멀티프로젝트 in jenkins Choonghyun Yang
 
NoSQL distilled.그래프 데이터베이스
NoSQL distilled.그래프 데이터베이스NoSQL distilled.그래프 데이터베이스
NoSQL distilled.그래프 데이터베이스Choonghyun Yang
 
[NoSQL] 2장. 집합적 데이터 모델
[NoSQL] 2장. 집합적 데이터 모델[NoSQL] 2장. 집합적 데이터 모델
[NoSQL] 2장. 집합적 데이터 모델kidoki
 
Api design for c++ ch3 pattern
Api design for c++ ch3 patternApi design for c++ ch3 pattern
Api design for c++ ch3 patternjinho park
 
정보사회학
정보사회학정보사회학
정보사회학Il-woo Lee
 
NoSQL 모델링
NoSQL 모델링NoSQL 모델링
NoSQL 모델링Hoyong Lee
 
Node Js와 Redis를 사용한 구조화된 데이터
Node Js와 Redis를 사용한 구조화된 데이터Node Js와 Redis를 사용한 구조화된 데이터
Node Js와 Redis를 사용한 구조화된 데이터jinho park
 
파이콘 한국 2017 키노트 : Back to the Basic
파이콘 한국 2017 키노트 : Back to the Basic파이콘 한국 2017 키노트 : Back to the Basic
파이콘 한국 2017 키노트 : Back to the BasicHyun-woo Park
 
NoSQL Database
NoSQL DatabaseNoSQL Database
NoSQL DatabaseSteve Min
 
NoSQL distilled 왜 NoSQL인가
NoSQL distilled 왜 NoSQL인가NoSQL distilled 왜 NoSQL인가
NoSQL distilled 왜 NoSQL인가Choonghyun Yang
 
Do not use Django as like as SMARTSTUDY
Do not use Django as like as SMARTSTUDYDo not use Django as like as SMARTSTUDY
Do not use Django as like as SMARTSTUDYHyun-woo Park
 
Docker.소개.30 m
Docker.소개.30 mDocker.소개.30 m
Docker.소개.30 mWonchang Song
 
NoSQL 분석 Slamdata
NoSQL 분석 SlamdataNoSQL 분석 Slamdata
NoSQL 분석 SlamdataPikdata Inc.
 

En vedette (20)

개인정보 비식별화 기술 동향 및 전망
개인정보 비식별화 기술 동향 및 전망 개인정보 비식별화 기술 동향 및 전망
개인정보 비식별화 기술 동향 및 전망
 
Apache Spark Overview part2 (20161117)
Apache Spark Overview part2 (20161117)Apache Spark Overview part2 (20161117)
Apache Spark Overview part2 (20161117)
 
Git
Git Git
Git
 
제2회 사내기술세미나-no sql(배표용)-d-hankim-2013-4-30
제2회 사내기술세미나-no sql(배표용)-d-hankim-2013-4-30제2회 사내기술세미나-no sql(배표용)-d-hankim-2013-4-30
제2회 사내기술세미나-no sql(배표용)-d-hankim-2013-4-30
 
Maven build for 멀티프로젝트 in jenkins
Maven build for 멀티프로젝트 in jenkins Maven build for 멀티프로젝트 in jenkins
Maven build for 멀티프로젝트 in jenkins
 
NoSQL distilled.그래프 데이터베이스
NoSQL distilled.그래프 데이터베이스NoSQL distilled.그래프 데이터베이스
NoSQL distilled.그래프 데이터베이스
 
[NoSQL] 2장. 집합적 데이터 모델
[NoSQL] 2장. 집합적 데이터 모델[NoSQL] 2장. 집합적 데이터 모델
[NoSQL] 2장. 집합적 데이터 모델
 
Api design for c++ ch3 pattern
Api design for c++ ch3 patternApi design for c++ ch3 pattern
Api design for c++ ch3 pattern
 
정보사회학
정보사회학정보사회학
정보사회학
 
NoSQL 모델링
NoSQL 모델링NoSQL 모델링
NoSQL 모델링
 
TRIZ
TRIZTRIZ
TRIZ
 
Node Js와 Redis를 사용한 구조화된 데이터
Node Js와 Redis를 사용한 구조화된 데이터Node Js와 Redis를 사용한 구조화된 데이터
Node Js와 Redis를 사용한 구조화된 데이터
 
파이콘 한국 2017 키노트 : Back to the Basic
파이콘 한국 2017 키노트 : Back to the Basic파이콘 한국 2017 키노트 : Back to the Basic
파이콘 한국 2017 키노트 : Back to the Basic
 
NoSQL Database
NoSQL DatabaseNoSQL Database
NoSQL Database
 
NoSQL distilled 왜 NoSQL인가
NoSQL distilled 왜 NoSQL인가NoSQL distilled 왜 NoSQL인가
NoSQL distilled 왜 NoSQL인가
 
Do not use Django as like as SMARTSTUDY
Do not use Django as like as SMARTSTUDYDo not use Django as like as SMARTSTUDY
Do not use Django as like as SMARTSTUDY
 
Docker.소개.30 m
Docker.소개.30 mDocker.소개.30 m
Docker.소개.30 m
 
No sql 분산모델
No sql 분산모델No sql 분산모델
No sql 분산모델
 
NoSQL 분석 Slamdata
NoSQL 분석 SlamdataNoSQL 분석 Slamdata
NoSQL 분석 Slamdata
 
Big data
Big dataBig data
Big data
 

Similaire à NoSQL 동향

Facebook keynote-nicolas-qcon
Facebook keynote-nicolas-qconFacebook keynote-nicolas-qcon
Facebook keynote-nicolas-qconYiwei Ma
 
支撑Facebook消息处理的h base存储系统
支撑Facebook消息处理的h base存储系统支撑Facebook消息处理的h base存储系统
支撑Facebook消息处理的h base存储系统yongboy
 
Facebook Messages & HBase
Facebook Messages & HBaseFacebook Messages & HBase
Facebook Messages & HBase强 王
 
Apache HBase Performance Tuning
Apache HBase Performance TuningApache HBase Performance Tuning
Apache HBase Performance TuningLars Hofhansl
 
HBaseCon 2015: HBase Performance Tuning @ Salesforce
HBaseCon 2015: HBase Performance Tuning @ SalesforceHBaseCon 2015: HBase Performance Tuning @ Salesforce
HBaseCon 2015: HBase Performance Tuning @ SalesforceHBaseCon
 
HBase: Extreme makeover
HBase: Extreme makeoverHBase: Extreme makeover
HBase: Extreme makeoverbigbase
 
HBase本輪読会資料(11章)
HBase本輪読会資料(11章)HBase本輪読会資料(11章)
HBase本輪読会資料(11章)moai kids
 
[B4]deview 2012-hdfs
[B4]deview 2012-hdfs[B4]deview 2012-hdfs
[B4]deview 2012-hdfsNAVER D2
 
第17回Cassandra勉強会: MyCassandra
第17回Cassandra勉強会: MyCassandra第17回Cassandra勉強会: MyCassandra
第17回Cassandra勉強会: MyCassandraShun Nakamura
 
Evaluating NoSQL Performance: Time for Benchmarking
Evaluating NoSQL Performance: Time for BenchmarkingEvaluating NoSQL Performance: Time for Benchmarking
Evaluating NoSQL Performance: Time for BenchmarkingSergey Bushik
 
Jug Lugano - Scale over the limits
Jug Lugano - Scale over the limitsJug Lugano - Scale over the limits
Jug Lugano - Scale over the limitsDavide Carnevali
 
A memcached implementation in Java
A memcached implementation in JavaA memcached implementation in Java
A memcached implementation in Javaelliando dias
 
Whirr dev-up-puppetconf2011
Whirr dev-up-puppetconf2011Whirr dev-up-puppetconf2011
Whirr dev-up-puppetconf2011Puppet
 
High-Availability of YARN (MRv2)
High-Availability of YARN (MRv2)High-Availability of YARN (MRv2)
High-Availability of YARN (MRv2)Mário Almeida
 
Performance evaluation of cloudera impala (with Comparison to Hive)
Performance evaluation of cloudera impala (with Comparison to Hive)Performance evaluation of cloudera impala (with Comparison to Hive)
Performance evaluation of cloudera impala (with Comparison to Hive)Yukinori Suda
 
HBase 0.20.0 Performance Evaluation
HBase 0.20.0 Performance EvaluationHBase 0.20.0 Performance Evaluation
HBase 0.20.0 Performance EvaluationSchubert Zhang
 
Storage Infrastructure Behind Facebook Messages
Storage Infrastructure Behind Facebook MessagesStorage Infrastructure Behind Facebook Messages
Storage Infrastructure Behind Facebook Messagesyarapavan
 
Ceph Day NYC: Ceph Performance & Benchmarking
Ceph Day NYC: Ceph Performance & BenchmarkingCeph Day NYC: Ceph Performance & Benchmarking
Ceph Day NYC: Ceph Performance & BenchmarkingCeph Community
 

Similaire à NoSQL 동향 (20)

Facebook keynote-nicolas-qcon
Facebook keynote-nicolas-qconFacebook keynote-nicolas-qcon
Facebook keynote-nicolas-qcon
 
支撑Facebook消息处理的h base存储系统
支撑Facebook消息处理的h base存储系统支撑Facebook消息处理的h base存储系统
支撑Facebook消息处理的h base存储系统
 
Facebook Messages & HBase
Facebook Messages & HBaseFacebook Messages & HBase
Facebook Messages & HBase
 
Apache HBase Performance Tuning
Apache HBase Performance TuningApache HBase Performance Tuning
Apache HBase Performance Tuning
 
HBaseCon 2015: HBase Performance Tuning @ Salesforce
HBaseCon 2015: HBase Performance Tuning @ SalesforceHBaseCon 2015: HBase Performance Tuning @ Salesforce
HBaseCon 2015: HBase Performance Tuning @ Salesforce
 
HBase: Extreme makeover
HBase: Extreme makeoverHBase: Extreme makeover
HBase: Extreme makeover
 
HBase本輪読会資料(11章)
HBase本輪読会資料(11章)HBase本輪読会資料(11章)
HBase本輪読会資料(11章)
 
[B4]deview 2012-hdfs
[B4]deview 2012-hdfs[B4]deview 2012-hdfs
[B4]deview 2012-hdfs
 
第17回Cassandra勉強会: MyCassandra
第17回Cassandra勉強会: MyCassandra第17回Cassandra勉強会: MyCassandra
第17回Cassandra勉強会: MyCassandra
 
Evaluating NoSQL Performance: Time for Benchmarking
Evaluating NoSQL Performance: Time for BenchmarkingEvaluating NoSQL Performance: Time for Benchmarking
Evaluating NoSQL Performance: Time for Benchmarking
 
Jug Lugano - Scale over the limits
Jug Lugano - Scale over the limitsJug Lugano - Scale over the limits
Jug Lugano - Scale over the limits
 
A memcached implementation in Java
A memcached implementation in JavaA memcached implementation in Java
A memcached implementation in Java
 
Whirr dev-up-puppetconf2011
Whirr dev-up-puppetconf2011Whirr dev-up-puppetconf2011
Whirr dev-up-puppetconf2011
 
High-Availability of YARN (MRv2)
High-Availability of YARN (MRv2)High-Availability of YARN (MRv2)
High-Availability of YARN (MRv2)
 
Performance evaluation of cloudera impala (with Comparison to Hive)
Performance evaluation of cloudera impala (with Comparison to Hive)Performance evaluation of cloudera impala (with Comparison to Hive)
Performance evaluation of cloudera impala (with Comparison to Hive)
 
ElephantDB
ElephantDBElephantDB
ElephantDB
 
Hbase
HbaseHbase
Hbase
 
HBase 0.20.0 Performance Evaluation
HBase 0.20.0 Performance EvaluationHBase 0.20.0 Performance Evaluation
HBase 0.20.0 Performance Evaluation
 
Storage Infrastructure Behind Facebook Messages
Storage Infrastructure Behind Facebook MessagesStorage Infrastructure Behind Facebook Messages
Storage Infrastructure Behind Facebook Messages
 
Ceph Day NYC: Ceph Performance & Benchmarking
Ceph Day NYC: Ceph Performance & BenchmarkingCeph Day NYC: Ceph Performance & Benchmarking
Ceph Day NYC: Ceph Performance & Benchmarking
 

Plus de NAVER D2

[211] 인공지능이 인공지능 챗봇을 만든다
[211] 인공지능이 인공지능 챗봇을 만든다[211] 인공지능이 인공지능 챗봇을 만든다
[211] 인공지능이 인공지능 챗봇을 만든다NAVER D2
 
[233] 대형 컨테이너 클러스터에서의 고가용성 Network Load Balancing: Maglev Hashing Scheduler i...
[233] 대형 컨테이너 클러스터에서의 고가용성 Network Load Balancing: Maglev Hashing Scheduler i...[233] 대형 컨테이너 클러스터에서의 고가용성 Network Load Balancing: Maglev Hashing Scheduler i...
[233] 대형 컨테이너 클러스터에서의 고가용성 Network Load Balancing: Maglev Hashing Scheduler i...NAVER D2
 
[215] Druid로 쉽고 빠르게 데이터 분석하기
[215] Druid로 쉽고 빠르게 데이터 분석하기[215] Druid로 쉽고 빠르게 데이터 분석하기
[215] Druid로 쉽고 빠르게 데이터 분석하기NAVER D2
 
[245]Papago Internals: 모델분석과 응용기술 개발
[245]Papago Internals: 모델분석과 응용기술 개발[245]Papago Internals: 모델분석과 응용기술 개발
[245]Papago Internals: 모델분석과 응용기술 개발NAVER D2
 
[236] 스트림 저장소 최적화 이야기: 아파치 드루이드로부터 얻은 교훈
[236] 스트림 저장소 최적화 이야기: 아파치 드루이드로부터 얻은 교훈[236] 스트림 저장소 최적화 이야기: 아파치 드루이드로부터 얻은 교훈
[236] 스트림 저장소 최적화 이야기: 아파치 드루이드로부터 얻은 교훈NAVER D2
 
[235]Wikipedia-scale Q&A
[235]Wikipedia-scale Q&A[235]Wikipedia-scale Q&A
[235]Wikipedia-scale Q&ANAVER D2
 
[244]로봇이 현실 세계에 대해 학습하도록 만들기
[244]로봇이 현실 세계에 대해 학습하도록 만들기[244]로봇이 현실 세계에 대해 학습하도록 만들기
[244]로봇이 현실 세계에 대해 학습하도록 만들기NAVER D2
 
[243] Deep Learning to help student’s Deep Learning
[243] Deep Learning to help student’s Deep Learning[243] Deep Learning to help student’s Deep Learning
[243] Deep Learning to help student’s Deep LearningNAVER D2
 
[234]Fast & Accurate Data Annotation Pipeline for AI applications
[234]Fast & Accurate Data Annotation Pipeline for AI applications[234]Fast & Accurate Data Annotation Pipeline for AI applications
[234]Fast & Accurate Data Annotation Pipeline for AI applicationsNAVER D2
 
Old version: [233]대형 컨테이너 클러스터에서의 고가용성 Network Load Balancing
Old version: [233]대형 컨테이너 클러스터에서의 고가용성 Network Load BalancingOld version: [233]대형 컨테이너 클러스터에서의 고가용성 Network Load Balancing
Old version: [233]대형 컨테이너 클러스터에서의 고가용성 Network Load BalancingNAVER D2
 
[226]NAVER 광고 deep click prediction: 모델링부터 서빙까지
[226]NAVER 광고 deep click prediction: 모델링부터 서빙까지[226]NAVER 광고 deep click prediction: 모델링부터 서빙까지
[226]NAVER 광고 deep click prediction: 모델링부터 서빙까지NAVER D2
 
[225]NSML: 머신러닝 플랫폼 서비스하기 & 모델 튜닝 자동화하기
[225]NSML: 머신러닝 플랫폼 서비스하기 & 모델 튜닝 자동화하기[225]NSML: 머신러닝 플랫폼 서비스하기 & 모델 튜닝 자동화하기
[225]NSML: 머신러닝 플랫폼 서비스하기 & 모델 튜닝 자동화하기NAVER D2
 
[224]네이버 검색과 개인화
[224]네이버 검색과 개인화[224]네이버 검색과 개인화
[224]네이버 검색과 개인화NAVER D2
 
[216]Search Reliability Engineering (부제: 지진에도 흔들리지 않는 네이버 검색시스템)
[216]Search Reliability Engineering (부제: 지진에도 흔들리지 않는 네이버 검색시스템)[216]Search Reliability Engineering (부제: 지진에도 흔들리지 않는 네이버 검색시스템)
[216]Search Reliability Engineering (부제: 지진에도 흔들리지 않는 네이버 검색시스템)NAVER D2
 
[214] Ai Serving Platform: 하루 수 억 건의 인퍼런스를 처리하기 위한 고군분투기
[214] Ai Serving Platform: 하루 수 억 건의 인퍼런스를 처리하기 위한 고군분투기[214] Ai Serving Platform: 하루 수 억 건의 인퍼런스를 처리하기 위한 고군분투기
[214] Ai Serving Platform: 하루 수 억 건의 인퍼런스를 처리하기 위한 고군분투기NAVER D2
 
[213] Fashion Visual Search
[213] Fashion Visual Search[213] Fashion Visual Search
[213] Fashion Visual SearchNAVER D2
 
[232] TensorRT를 활용한 딥러닝 Inference 최적화
[232] TensorRT를 활용한 딥러닝 Inference 최적화[232] TensorRT를 활용한 딥러닝 Inference 최적화
[232] TensorRT를 활용한 딥러닝 Inference 최적화NAVER D2
 
[242]컴퓨터 비전을 이용한 실내 지도 자동 업데이트 방법: 딥러닝을 통한 POI 변화 탐지
[242]컴퓨터 비전을 이용한 실내 지도 자동 업데이트 방법: 딥러닝을 통한 POI 변화 탐지[242]컴퓨터 비전을 이용한 실내 지도 자동 업데이트 방법: 딥러닝을 통한 POI 변화 탐지
[242]컴퓨터 비전을 이용한 실내 지도 자동 업데이트 방법: 딥러닝을 통한 POI 변화 탐지NAVER D2
 
[212]C3, 데이터 처리에서 서빙까지 가능한 하둡 클러스터
[212]C3, 데이터 처리에서 서빙까지 가능한 하둡 클러스터[212]C3, 데이터 처리에서 서빙까지 가능한 하둡 클러스터
[212]C3, 데이터 처리에서 서빙까지 가능한 하둡 클러스터NAVER D2
 
[223]기계독해 QA: 검색인가, NLP인가?
[223]기계독해 QA: 검색인가, NLP인가?[223]기계독해 QA: 검색인가, NLP인가?
[223]기계독해 QA: 검색인가, NLP인가?NAVER D2
 

Plus de NAVER D2 (20)

[211] 인공지능이 인공지능 챗봇을 만든다
[211] 인공지능이 인공지능 챗봇을 만든다[211] 인공지능이 인공지능 챗봇을 만든다
[211] 인공지능이 인공지능 챗봇을 만든다
 
[233] 대형 컨테이너 클러스터에서의 고가용성 Network Load Balancing: Maglev Hashing Scheduler i...
[233] 대형 컨테이너 클러스터에서의 고가용성 Network Load Balancing: Maglev Hashing Scheduler i...[233] 대형 컨테이너 클러스터에서의 고가용성 Network Load Balancing: Maglev Hashing Scheduler i...
[233] 대형 컨테이너 클러스터에서의 고가용성 Network Load Balancing: Maglev Hashing Scheduler i...
 
[215] Druid로 쉽고 빠르게 데이터 분석하기
[215] Druid로 쉽고 빠르게 데이터 분석하기[215] Druid로 쉽고 빠르게 데이터 분석하기
[215] Druid로 쉽고 빠르게 데이터 분석하기
 
[245]Papago Internals: 모델분석과 응용기술 개발
[245]Papago Internals: 모델분석과 응용기술 개발[245]Papago Internals: 모델분석과 응용기술 개발
[245]Papago Internals: 모델분석과 응용기술 개발
 
[236] 스트림 저장소 최적화 이야기: 아파치 드루이드로부터 얻은 교훈
[236] 스트림 저장소 최적화 이야기: 아파치 드루이드로부터 얻은 교훈[236] 스트림 저장소 최적화 이야기: 아파치 드루이드로부터 얻은 교훈
[236] 스트림 저장소 최적화 이야기: 아파치 드루이드로부터 얻은 교훈
 
[235]Wikipedia-scale Q&A
[235]Wikipedia-scale Q&A[235]Wikipedia-scale Q&A
[235]Wikipedia-scale Q&A
 
[244]로봇이 현실 세계에 대해 학습하도록 만들기
[244]로봇이 현실 세계에 대해 학습하도록 만들기[244]로봇이 현실 세계에 대해 학습하도록 만들기
[244]로봇이 현실 세계에 대해 학습하도록 만들기
 
[243] Deep Learning to help student’s Deep Learning
[243] Deep Learning to help student’s Deep Learning[243] Deep Learning to help student’s Deep Learning
[243] Deep Learning to help student’s Deep Learning
 
[234]Fast & Accurate Data Annotation Pipeline for AI applications
[234]Fast & Accurate Data Annotation Pipeline for AI applications[234]Fast & Accurate Data Annotation Pipeline for AI applications
[234]Fast & Accurate Data Annotation Pipeline for AI applications
 
Old version: [233]대형 컨테이너 클러스터에서의 고가용성 Network Load Balancing
Old version: [233]대형 컨테이너 클러스터에서의 고가용성 Network Load BalancingOld version: [233]대형 컨테이너 클러스터에서의 고가용성 Network Load Balancing
Old version: [233]대형 컨테이너 클러스터에서의 고가용성 Network Load Balancing
 
[226]NAVER 광고 deep click prediction: 모델링부터 서빙까지
[226]NAVER 광고 deep click prediction: 모델링부터 서빙까지[226]NAVER 광고 deep click prediction: 모델링부터 서빙까지
[226]NAVER 광고 deep click prediction: 모델링부터 서빙까지
 
[225]NSML: 머신러닝 플랫폼 서비스하기 & 모델 튜닝 자동화하기
[225]NSML: 머신러닝 플랫폼 서비스하기 & 모델 튜닝 자동화하기[225]NSML: 머신러닝 플랫폼 서비스하기 & 모델 튜닝 자동화하기
[225]NSML: 머신러닝 플랫폼 서비스하기 & 모델 튜닝 자동화하기
 
[224]네이버 검색과 개인화
[224]네이버 검색과 개인화[224]네이버 검색과 개인화
[224]네이버 검색과 개인화
 
[216]Search Reliability Engineering (부제: 지진에도 흔들리지 않는 네이버 검색시스템)
[216]Search Reliability Engineering (부제: 지진에도 흔들리지 않는 네이버 검색시스템)[216]Search Reliability Engineering (부제: 지진에도 흔들리지 않는 네이버 검색시스템)
[216]Search Reliability Engineering (부제: 지진에도 흔들리지 않는 네이버 검색시스템)
 
[214] Ai Serving Platform: 하루 수 억 건의 인퍼런스를 처리하기 위한 고군분투기
[214] Ai Serving Platform: 하루 수 억 건의 인퍼런스를 처리하기 위한 고군분투기[214] Ai Serving Platform: 하루 수 억 건의 인퍼런스를 처리하기 위한 고군분투기
[214] Ai Serving Platform: 하루 수 억 건의 인퍼런스를 처리하기 위한 고군분투기
 
[213] Fashion Visual Search
[213] Fashion Visual Search[213] Fashion Visual Search
[213] Fashion Visual Search
 
[232] TensorRT를 활용한 딥러닝 Inference 최적화
[232] TensorRT를 활용한 딥러닝 Inference 최적화[232] TensorRT를 활용한 딥러닝 Inference 최적화
[232] TensorRT를 활용한 딥러닝 Inference 최적화
 
[242]컴퓨터 비전을 이용한 실내 지도 자동 업데이트 방법: 딥러닝을 통한 POI 변화 탐지
[242]컴퓨터 비전을 이용한 실내 지도 자동 업데이트 방법: 딥러닝을 통한 POI 변화 탐지[242]컴퓨터 비전을 이용한 실내 지도 자동 업데이트 방법: 딥러닝을 통한 POI 변화 탐지
[242]컴퓨터 비전을 이용한 실내 지도 자동 업데이트 방법: 딥러닝을 통한 POI 변화 탐지
 
[212]C3, 데이터 처리에서 서빙까지 가능한 하둡 클러스터
[212]C3, 데이터 처리에서 서빙까지 가능한 하둡 클러스터[212]C3, 데이터 처리에서 서빙까지 가능한 하둡 클러스터
[212]C3, 데이터 처리에서 서빙까지 가능한 하둡 클러스터
 
[223]기계독해 QA: 검색인가, NLP인가?
[223]기계독해 QA: 검색인가, NLP인가?[223]기계독해 QA: 검색인가, NLP인가?
[223]기계독해 QA: 검색인가, NLP인가?
 

NoSQL 동향

  • 1. SDECofflinecommunity 1.NoSQLbenchmark NHN 저장시스템개발팀 김효
  • 2. 테스트환경 CPU:IntelXeonL5640,12Core(Nehalem6CoreX2CPU)2.27GHz RAM:16GB CentOSrelease5.3(Final) TestCase1 • 데이터Insert • Insertkey는랜덤(FNVhash32이용) Insert • DB는비어있는상태 TestCase2 • 임의로Read,Update수행 • Read:Update비율은50:50 • DB는50,000,000row의데이터가저장된상태(Size=약60GB) Read/Update • Key분포는Zipfian TestCase3 • Read만수행 • DB는50,000,000row의데이터가저장된상태(Size=약60GB) Read • Key분포는Zipfian • 임의로Read,Insert수행(50,000,000row에서추가로row추가) TestCase4 • Read:Insert비율은50:50 Read/Insert • DB는50,000,000row의데이터가저장된상태(Size=약60GB) • Key분포는Zipfian • 테스트시간:1시간or30분(테스트종류별로다름) • 각각의테스트를Thread128인경우에대해수행 공통사항 • 모든Operation은1Row전체에대해읽기나쓰기를한다. • 1Row=Key+10FieldsX100Bytes(RandomString)=약1000Bytes 2/10
  • 4. MongoDB-1.8.1 OplogSize=100G(default:디스크의5%) • ReplicaSet:3 YCSB Client mongod mongod mongod (ReplicaSet) (ReplicaSet) (ReplicaSet) Primary Secondary Secondary 4/10
  • 5. HBase-0.90.3 Hadoop-0.20-append(durableappend패치된branch) • HBaseClientcache:사용안함 • HBaseHeapSize=8G • HDFSReplicationFactor=3 YCSB Client HDFS HDFS HDFS DataNode DataNode DataNode HBase HDFS Hadoop MasterServe NameNode Zookeeper r Hbase Hbase Hbase Region Region Region Server Server Server 5/10
  • 6. 테스트결과 25000   Average  TPS   20000   15000   Cassandra   Hbase   10000   MongoDB   5000   0   Insert   Read  (Compac5on  전)   Read  (Compac5on  후)   Read/Update   Read/Insert   •  Cassandra,Hbase의경우SSTable의Compaction정도에따라Read의성능차이가있음 •  Read의경우,Compaction전과후의테스트결과 •  Read/Update,Read/Insert의경우,Compaction후의테스트결과만첨부 •  MongoDB의경우Update와Insert가다른명령이어서성능차이있음 •  반면,Cassandra,Hbase의경우Update와Insert가내부적으로같은명령으로성능차이거의없음 6/10
  • 7. Insert 40000   30000   TPS  변화(10초 간격) Cassandra   20000   Hbase   10000   0   MongoDB   30000   20000   MongoDB   10000   0   25000   •  50,000,000row가Insert되는속도에따라그래프의길이가다름 20000   Cassandra   15000   •  주의:두그래프의세로축스케일이다름 10000   Hbase   •  테스트시간:50,000,000row가Insert될때까지 5000   MongoDB   0   Insert   7/10
  • 8. Read 3500   3000   2500   Compac8on  전 Cassandra   2000   Hbase   1500   MongoDB   1000   500   0   6000   5000   Compac8on  후   4000   Cassandra   3000   Hbase   2000   MongoDB   1000   0   5000   •  Cassandra,Hbase의Compaction전후의TPS변화와 4000   MongoDBTPS변화의비교그래프 3000   Cassandra   2000   Hbase   •  주의:두그래프의세로축스케일이다름 1000   •  테스트시간:1시간 MongoDB   0   Read  (Compac5on   후)   8/10
  • 9. Read/Update 9000   8000   7000   6000   Cassandra   5000   Hbase   4000   MongoDB   3000   2000   1000   0   6000   5000   •  Cassandra,Hbase의경우Compaction후의테스트결과 4000   Cassandra   •  Hbase의경우새로Update되는데이터로인해Compact되지않은 3000   SSTable증가로시간이지날수록완만한TPS감소를보인다. Hbase   2000   MongoDB   1000   •  테스트시간:1시간 0   Read/Update   9/10
  • 10. Read/Insert 8000   6000   Cassandra   4000   Hbase   2000   0   MongoDB   1000   500   MongoDB   0   6000   •  Hbase의경우완전히Compaction후테스트하면 약간의averageTPS증가예상됨 4000   Cassandra   Hbase   •  주의:두그래프의세로축스케일이다름 2000   •  테스트시간:30분 MongoDB   0   Read/Insert   10/10
  • 11. SDECofflinecommunity 2.NoSQL장애테스트 NHN 저장시스템개발팀 김효
  • 12. Cassandra­–level1 50000 45000 ReadWorkload,ConsistencyLevelONE 40000 35000 신규노드투입 30000 노드제거 25000 20000 15000 10000 5000 0 -Read,Read/InsertWorkload모두비슷한양상 -  초기화된신규노드추가시비정상적으로급격히TPS가높아진다. -  1~2분경과후TPS가0으로떨어진다. -  이후주기적으로TPS가급격히올라갔다가0으로떨어지기를반복하면서 점차TPS가0인상태가길어진다. 12/10
  • 13. Cassandra­–level1 30000 TPStarget,3000제한 25000 20000 15000 10000 5000 0 1 4 7 10 13 16 19 22 25 28 31 34 37 40 43 46 49 52 55 58 61 64 67 70 73 76 79 82 85 88 91 94 97 100 103 -  ReadWorkload의장애상황을테스트,테스트툴에서최대TPS를3000으로제한 -  두번의peak는갑작스런TPS증가를테스트툴에서제한하지못한문제로 CassandraCluster상태에는영향을주지않음 -  TPS를3000으로제한할경우정상작동 13/10
  • 14. Cassandra­–levelquorum 노드제거 2500 신규노드투입 nodetool­–repair수행 2000 1500 1000 500 0 -  TPS가급격히높아지는현상발생하지않음 -  빈데이터를반환하지않음 -  한노드제거시,짧은시간이경과한후TPS감소를보인다. -  nodetool의repair수행시시간이지날수록TPS가감소한다. 2시간테스트할때,테스트종료직전약500TPS 14/10
  • 15. MongoDB •  한노드를제거하여M-S구성이된상태에서Master를제거할경우 •  남아있는Secondary는여전히Secondary로남아있으며, Master가되지못해operation수행하지못함 •  Master노드에5,000,000row(약5기가)에해당하는데이터를Insert •  Master노드의row수count후,Master제거 •  1262617row •  MongoDB는Asynchronous하게M-S-S를유지하며, •  Insert/Update중장애가발생하면,데이터유실우려가있음. 15/10
  • 16. HBASE 4000 RegionServer제거 RegionServer제거 3500 RegionServer재시작 3000 2500 2000 1500 1000 500 0 - RegionServer를제거할경우약2분가량TPS가0으로떨어진다. - 일정시간(약2분)경과후TPS가올라가면서정상작동한다. 하지만,평균TPS는감소한상태로지속 -정상상태:약3500TPS -한노드를제거한상태:약2000TPS - RegionServer를재시작할경우,평균TPS가올라가초기와비슷한성능을보임 -전체RegionServer가일시적으로정지하는현상에대해원인파악하지못함 16/10
  • 17. HBASE 4000 3500 DataNode제거 신규DataNode투입 3000 2500 2000 1500 1000 500 0 - DataNode를제거할경우순간적으로TPS가떨어진다. - 이후,TPS가조금씩높아져일정하게유지된다. - 정상상태:약3500TPS - DataNode를제거한상태:약2000TPS - 초기화된DataNode를추가하면TPS가더낮아진다. - 약700~1500TPS사이를진동 - 새로투입된DataNode를복구하기때문으로추정 17/10
  • 18. SDECofflinecommunity 3.NoSQL동향 NHN 저장시스템개발팀 김효
  • 20. Oracle OracleNoSQLDatabase BerkelyDBJavaEditionbased Log-structuredstorage Paxosprotocolforelection 3-coyplication Singlemaster 20/10
  • 21. IBMDB2 IBMDB2toincludeNoSQLFeatures basedonIBM’sRationalJazztripplestoresolution DB2,Informix고객의추가비용없이이용 21/10
  • 22. Amazon AmazonDynamoDB Dynamopaperin2007 SSDhardwaredisk LessonsandlearnedfromsimpleDB: ScaleandPredictable Kindledocuments 22/10
  • 23. Hadoop IBM Oracle HP EMC Steadyseller 1.0.0released Microsoft windowserverandAzure ODBCdriverforHive Hadoop-to-SQLServerconnector 23/10
  • 24. Etc •  MongoDB •  duallicense:AGPL,commercial •  Cassandra •  CassandraSQL:CQL(-10%performancethanRPC) •  Couchbase •  CouchbaseServer2.0CouchbaseMobileSyncpoint •  Redis,Riak •  notshowupmuch 24/10
  • 25. Summary •  NoSQL은더이상신기한것이아니다. •  Major업체들이뛰어드는시점 •  Hadoop은기술자체에서사용솔루션으로진화 •  최초의NoSQL들의시련예상 25/10