새 우편번호 검색기.

8월 1일부터 우편번호 체계가 바뀐다.
6자리에서 5자리로 바뀌는 것이니 크게 바뀐다고 할 수 있겠다.

우체국에서는 여러가지 홍보수단을 이용해서 국민들에게 알리고 있고
그리고 많은 시스템의 우편번호 체계를 바꿀 수 있도록 관련 DB를 내려 받을 수 있도록 하고 있다.

우편번호 DB 및 검색프로그램  : http://www.epost.go.kr/search/zipcode/cmzcd002k01.jsp

그런데
이번에 우연한 기회로 "새로운 우편번호 검색프로그램"을 사용하다가 뭔가 부족한 느낌이 들어
내가 만들어 볼 생각으로 하나를 만들어봤다.
정말 오래간만에 검색을 하는 것이라 좀 해멨고 주소체계가 나름 복잡하여 살짝 고생도 있었는데
만들고 보니 괜찮다는 생각이 들어 공개하려고 한다.

기본적인 UI는 기존 프로그램과 거의 동일하게 작업했고 불필요하다고 생각되는 부분은 제거하였다.
(우체국이 이런걸로 저작권을 운운하지는 않으리라...)


특별히 설치는 필요없고 PostCodeSearch.exe를 실행시키면 된다.
하지만 .Net Framework 4.0이 설치되어 있어야 한다.

기존 우체국 프로그램과 비교하여 좋은 점
   * 프로그램 용량이 작다 ( 하지만 인터넷에 연결되어 있어야... )
   * 검색부분은 웹서비스 형태로 공개되어 다른 클라이언트(웹, 앱)로 전이가 쉽다.( WSDL링크 )
   * 검색이 품질이 더 좋다. (아래 예제 검색어들은 기존 프로그램에서는 결과가 않나오거나 다른 값이 나온다)
     예) 지번검색 -> "서울시", "서울특별시  개포동", "서울특별시 강남구 개포동", "강남구 일원2동"
         도로명검색 -> "전라남도 정보화길", "전라도", "전라북도 고군산로", "군산시   신시도길"
         건물명검색 -> "목동아파트3단지", "서울시 동대문구", "동대문구 동대문구청"

*프로그래밍관련 이야기.
검색은 루씬(5.2.1)를 사용하였고, JDK 1.7을 사용하였다.
웹서비스는 톰캣에 올라가 있으며 가능하면 서비스를 내리지는 않을 것이지만 재부팅이나 이사 등 사정이 생기면 
접속이 않될 수 있다.
클라이언트 프로그램은 .NET 4.0기반으로 제작되었다.
이번 작업을 위해서 별도의 Tokenizer와 쿼리파서를 만들었다.
(더 궁금한 것이 잇으면 댓글로 문의...)

워낙 오래간만에 또 급하게 만드느라고 여러가지 버그와 이상한점이 있으리라 생각되지만
너무 오래 끌어도 별로인 것 같아서 그냥 이쯤에서 손 털려고 한다.

by 슈퍼맨 | 2015/07/02 20:21 | 루씬/SOLR/엘라스틴 | 트랙백 | 덧글(6)

Solr관련 책 출간

링크 : Solr 1.4 Enterprise Search Server
         Adobe eBook PDF Version


Enhance your search with faceted navigation, result highlighting, fuzzy queries, ranked scoring, and more

  • Deploy, embed, and integrate Solr with a host of programming languages
  • Implement faceting in e-commerce and other sites to summarize and navigate the results of a text search
  • Enhance your search by highlighting search results, offering spell-corrections, auto-suggest, finding “similar” records, boosting records and fields for scoring, phonetic matching
  • Informative and practical approach to development with fully working examples of integrating a variety of technologies
  • Written and tested for Solr 1.4 pre-release 2009.08
Language English
Paperback 336 pages [191mm x 235mm]
Release date August 2009
ISBN 1847195881
ISBN 13 978-1-847195-88-3
Author(s) David Smiley, Eric Pugh
Topics and Technologies Open Source

In Detail
If you are a developer building a high-traffic web site, you need to have a terrific search engine. Sites like Netflix.com and Zappos.com employ Solr, an open source enterprise search server, which uses and extends the Lucene search library. This is the first book in the market on Solr and it will show you how to optimize your web site for high volume web traffic with full-text search capabilities along with loads of customization options. So, let your users gain a terrific search experience.
This book is a comprehensive reference guide for every feature Solr has to offer. It serves the reader right from initiation to development to deployment. It also comes with complete running examples to demonstrate its use and show how to integrate it with other languages and frameworks.
This book first gives you a quick overview of Solr, and then gradually takes you from basic to advanced features that enhance your search. It starts off by discussing Solr and helping you understand how it fits into your architecture—where all databases and document/web crawlers fall short, and Solr shines. The main part of the book is a thorough exploration of nearly every feature that Solr offers. To keep this interesting and realistic, we use a large open source set of metadata about artists, releases, and tracks courtesy of the MusicBrainz.org project. Using this data as a testing ground for Solr, you will learn how to import this data in various ways from CSV to XML to database access. You will then learn how to search this data in a myriad of ways, including Solr's rich query syntax, "boosting" match scores based on record data and other means, about searching across multiple fields with different boosts, getting facets on the results, auto-complete user queries, spell-correcting searches, highlighting queried text in search results, and so on.
After this thorough tour, we'll demonstrate working examples of integrating a variety of technologies with Solr such as Java, JavaScript, Drupal, Ruby, XSLT, PHP, and Python.
Finally, we'll cover various deployment considerations to include indexing strategies and performance-oriented configuration that will enable you to scale Solr to meet the needs of a high-volume site.

What you will learn from this book
  • Blend structured data with real search features
  • Import CSV formatted data, XML, common document formats, and from databases
  • Deploy Solr and provide reference to Solr's query syntax from the basics to range queries
  • Enhance search results with spell-checking, auto-completing queries, highlighting search results, and more.
  • Secure Solr
  • Integrate a host of technologies with Solr from the server side to client-side JavaScript, to frameworks like Drupal
  • Scale Solr using replication, distributed searches, and tuning
Approach
The book takes a tutorial approach with fully working examples. It will show you how to implement a Solr-based search engine on your intranet or web site.
Who this book is written for
This book is for developers who would like to use Solr for their applications. You only need to have basic programming skills to use Solr. Knowledge of Lucene is certainly a bonus.

Author(s)
David Smiley

Born to code, David Smiley is a senior software developer with 10 years of experience in the defense industry using Java and various web technologies. David is a strong believer in the open-source development model and has made small contributions to various projects over the years.

David began using Lucene way back in 2000 and was immediately excited by it and its future potential. Later on he went to use the Lucene-based "Compass" library to construct a very basic search server similar in spirit to Solr. Since then, David has used Solr for a larger search project and was able to contribute modifications back to the Solr community. Although preferring open-source solutions, David has also been trained on the commercial Endeca search platform and is currently using that product as well as Solr for a different project.

Eric Pugh

Fascinated by the "craft" of software development, Eric Pugh has been heavily involved in the open source world as a developer, committer, and user for the past 5 years. He is a member of the Apache Software Foundation and lately has been mulling over how we move from the read/write web to the read/write/share web.

In biotech, financial services, and defense IT, he has helped European and American companies develop coherent strategies for embracing open source software. As a speaker he has advocated the advantages of Agile practices in software development.

Eric became involved in Solr when he submitted the patch SOLR-284 for Parsing Rich Document types such as PDF and MS Office formats that became the single most popular patch as measured by votes! SOLR-284 became part of Solr version 1.4.

 

Table of Contents

Preface
Chapter 1: Quick Starting Solr

  • An introduction to Solr
    • Lucene, the underlying engine
    • Solr, the Server-ization of Lucene
  • Comparison to database technology
  • Getting started
    • The last official release or fresh code from source control
    • Testing and building Solr
    • Solr's installation directory structure
    • Solr's home directory
    • How Solr finds its home
    • Deploying and running Solr
  • A quick tour of Solr!
    • Loading sample data
    • A simple query
    • Some statistics
  • The schema and configuration files
  • Solr resources outside this book
  • Summary

    Chapter 2: Schema and Text Analysis

    • MusicBrainz.org
    • One combined index or multiple indices
      • Problems with using a single combined index
    • Schema design
      • Step 1: Determine which searches are going to be powered by Solr
      • Step 2: Determine the entities returned from each search
      • Step 3: Denormalize related data
        • Denormalizing—"one-to-one" associated data
        • Denormalizing—"one-to-many" associated data
      • Step 4: (Optional) Omit the inclusion of fields only used in search results
    • The schema.xml file
      • Field types
      • Field options
      • Field definitions
        • Sorting
        • Dynamic fields
        • Using copyField
        • Remaining schema.xml settings
    • Text analysis
      • Configuration
      • Experimenting with text analysis
      • Tokenization
      • WorkDelimiterFilterFactory
      • Stemming
      • Synonyms
        • Index-time versus Query-time, and to expand or not
      • Stop words
      • Phonetic sounds-like analysis
      • Partial/Substring indexing
        • N-gramming costs
      • Miscellaneous analyzers
    • Summary

      Chapter 3: Indexing Data

      • Communicating with Solr
        • Direct HTTP or a convenient client API
        • Data streamed remotely or from Solr's filesystem
        • Data formats
      • Using curl to interact with Solr
      • Remote streaming
      • Sending XML to Solr
        • Deleting documents
        • Commit, optimize, and rollback
      • Sending CSV to Solr
        • Configuration options
      • Direct database and XML import
        • Getting started with DIH
          • The DIH development console
          • DIH documents, entities
          • DIH fields and transformers
        • Importing with DIH
      • Indexing documents with Solr Cell
        • Extracting binary content
        • Configuring Solr
        • Extracting karaoke lyrics
        • Indexing richer documents
      • Summary

        Chapter 4: Basic Searching

        • Your first search, a walk-through
        • Solr's generic XML structured data representation
        • Solr's XML response format
          • Parsing the URL
        • Query parameters
          • Parameters affecting the query
          • Result paging
          • Output related parameters
          • Diagnostic query parameters
        • Query syntax
          • Matching all the documents
          • Mandatory, prohibited, and optional clauses
            • Boolean operators
          • Sub-expressions (aka sub-queries)
            • Limitations of prohibited clauses in sub-expressions
          • Field qualifier
          • Phrase queries and term proximity
          • Wildcard queries
            • Fuzzy queries
          • Range queries
            • Date math
          • Score boosting
          • Existence (and non-existence) queries
          • Escaping special characters
        • Filtering
        • Sorting
        • Request handlers
        • Scoring
          • Query-time and index-time boosting
          • Troubleshooting scoring
        • Summary

          Chapter 5: Enhanced Searching

          • Function queries
            • An example: Scores influenced by a lookupcount
            • Field references
            • Function reference
              • Mathematical primitives
              • Miscellaneous math
              • ord and rord
            • An example with scale() and lookupcount
              • Using logarithms
              • Using inverse reciprocals
              • Using reciprocals and rord with dates
            • Function query tips
          • Dismax Solr request handler
            • Lucene's DisjunctionMaxQuery
              • Configuring queried fields and boosts
            • Limited query syntax
            • Boosting: Automatic phrase boosting
              • Configuring automatic phrase boosting
              • Phrase slop configuration
            • Boosting: Boost queries
            • Boosting: Boost functions
            • Min-should-match
              • Basic rules
              • Multiple rules
              • What to choose
            • A default search
          • Faceting
            • A quick example: Faceting release types
              • MusicBrainz schema changes
            • Field requirements
            • Types of faceting
            • Faceting text
            • Alphabetic range bucketing (A-C, D-F, and so on)
            • Faceting dates
              • Date facet parameters
            • Faceting on arbitrary queries
            • Excluding filters
              • The solution: Local Params
            • Facet prefixing (term suggest)
          • Summary

            Chapter 6: Search Components

            • About components
            • The highlighting component
              • A highlighting example
              • Highlighting configuration
            • Query elevation
              • Configuration
            • Spell checking
              • Schema configuration
              • Configuration in solrconfig.xml
                • Configuring spellcheckers (dictionaries)
                • Processing of the q parameter
                • Processing of the spellcheck.q parameter
              • Building the dictionary from its source
              • Issuing spellcheck requests
              • Example usage for a mispelled query
                • An alternative approach
            • The more-like-this search component
              • Configuration parameters
                • Parameters specific to the MLT search component
                • Parameters specific to the MLT request handler
                • Common MLT parameters
              • MLT results example
            • Stats component
              • Configuring the stats component
              • Statistics on track durations
            • Field collapsing
              • Configuring field collapsing
            • Other components
              • Terms component
              • termVector component
              • LocalSolr component
            • Summary

              Chapter 7: Deployment

              • Implementation methodology
                • Questions to ask
              • Installing into a Servlet container
                • Differences between Servlet containers
                  • Defining solr.home property
              • Logging
                • HTTP server request access logs
                • Solr application logging
                  • Configuring logging output
                  • Logging to Log4j
                  • Jetty startup integration
                  • Managing log levels at runtime
              • A SearchHandler per search interface
              • Solr cores
                • Configuring solr.xml
                • Managing cores
                • Why use multicore
              • JMX
                • Starting Solr with JMX
                  • Take a walk on the wild side! Use JRuby to extract JMX information
              • Securing Solr
                • Limiting server access
                  • Controlling JMX access
                • Securing index data
                  • Controlling document access
                  • Other things to look at
              • Summary

                Chapter 8: Integrating Solr

                • Structure of included examples
                  • Inventory of examples
                • SolrJ: Simple Java interface
                  • Using Heritrix to download artist pages
                  • Indexing HTML in Solr
                  • SolrJ client API
                    • Indexing POJOs
                  • When should I use Embedded Solr
                    • In-Process streaming
                    • Rich clients
                    • Upgrading from legacy Lucene
                • Using JavaScript to integrate Solr
                  • Wait, what about security?
                  • Building a Solr powered artists autocomplete widget with jQuery and JSONP
                  • SolrJS: JavaScript interface to Solr
                • Accessing Solr from PHP applications
                  • solr-php-client
                  • Drupal options
                    • Apache Solr Search integration module
                    • Hosted Solr by Acquia
                • Ruby on Rails integrations
                  • acts_as_solr
                    • Setting up MyFaves project
                    • Populating MyFaves relational database from Solr
                    • Build Solr indexes from relational database
                    • Complete MyFaves web site
                  • Blacklight OPAC
                    • Indexing MusicBrainz data
                  • Customizing display
                  • solr-ruby versus rsolr
                • Summary

                  Chapter 9: Scaling Solr

                  • Tuning complex systems
                    • Using Amazon EC2 to practice tuning
                      • Firing up Solr on Amazon EC2
                  • Optimizing a single Solr server (Scale High)
                    • JVM configuration
                    • HTTP caching
                    • Solr caching
                      • Tuning caches
                    • Schema design considerations
                    • Indexing strategies
                      • Disable unique document checking
                      • Commit/optimize factors
                    • Enhancing faceting performance
                    • Using term vectors
                    • Improving phrase search performance
                      • The solution: Shingling
                  • Moving to multiple Solr servers (Scale Wide)
                    • Script versus Java replication
                    • Starting multiple Solr servers
                      • Configuring replication
                    • Distributing searches across slaves
                      • Indexing into the master server
                      • Configuring slaves
                    • Distributing search queries across slaves
                    • Sharding indexes
                      • Assigning documents to shards
                      • Searching across shards
                  • Combining replication and sharding (Scale Deep)
                  • Summary

                  by 슈퍼맨 | 2009/10/23 10:18 | 루씬/SOLR/엘라스틴 | 트랙백 | 덧글(2)

                  세미나 및 학회 소식

                  매년 정기적으로 참석하였던 세미나와 학회가 가을을 맞이하여 개최된다.

                  1. KM & ECM Conference Fall 2009
                  주    제
                  경제에 활기를! 기업에 비전을!

                  일    시
                  2009년 9월 24일(목) 9:00 ~ 17:30

                  장    소
                  삼성동 코엑스 그랜드볼룸(봉은사 맞은편)

                  행사목적
                  - KMS, ECM, EP/EIP, EDMS, Search Engine 관련 시장 활성화 및 성공사례 전파
                  - 정부, 공공기관, 금융기관 및 각 기업체의 생산성 향상과 경쟁력 강화
                  - 국내외 KMS/ECM 관련 솔루션 최근 동향 및 신기술 관련 최신 정보 제공

                  행사규모
                  2트랙 10세션, 전시 15부스 내외, 참관객 500여명

                  행사내용
                  - 세미나 : KMS/EDMS/EP/ECM/자료관/기록물관리 관련 사례 및 신기술 발표
                  - 전시회 : KMS/EDMS/EP/ECM/자료관/기록물관리 관련 제품 전시

                  참석대상
                  - 정부/공공/금융 및 일반기업체 전산 부서장 및 담당자
                  - 각 기업 CEO/CIO/기획실/혁신팀/지식경영 부서장 및 담당자
                  - 경영혁신의 일환으로 지식경영을 도입하였거나 계획이 있는
                    정부/공공기관 및 기업체 관계자
                  - KMS/ECM을 사용 중이거나 계획이 있는 정부/공공기관 및 기업 관계자

                  주    최
                  전자신문사, 한국소프트웨어산업협회

                  주    관
                  KM&ECM협의회

                  참 가 사
                  가온아이, 굿센테크날러지, 나눔기술, 날리지큐브, 사이버다임, 삼성SDS, 솔트룩스, 아이디에스앤트러스트, 온더아이티, 와이즈소프트

                  2. [HCLT2009] 한글 및 한국어 정보처리 학술대회 
                  10월 9일 (장소 : 대전 유성 레전드호텔)

                  12:30 - 14:00 등록인지과학회 회장 환영사
                  13:30 - 14:00 한국정보과학회, 언어공학연구회 위원장 인사말, 조직위원장 보고
                  14:00 - 14:40 초청강연1
                  14:40 - 15:20 초청강연2
                  15:20 - 15:40 휴식
                  15:40 - 17:00 구두발표 세션1(15분 발표 5분 질의응답 ) 4편
                  17:00 - 17:10 휴식
                  17:10 - 18:30 구두발표 세션2(15분 발표 5분 질의응답) 4편
                  18:30 - 20:00 만찬

                  10월 10일 (장소 : 대전 유성 레전드호텔)

                  09:00 - 10:20 구두발표 세션3(15분 발표 5분 질의응답) 4편
                  10:20 - 11:10 포스터 세션
                  11:10 - 12:30 구두발표 세션4(15분 발표 5분 질의응답) 4편
                  12:30 - 13:30 점심식사

                  ------------
                  KM&ECM행사는 솔트룩스를 제외한 검색관련 업체가 빠져서 완전히 KM&ECM전문업체 중심으로 진행이 될 것 같으며,
                  행사비(사전등록 : 55,000원)가 있어서 초대장이 있지 않으면 참석하는 것이 조금 어려울 것 같다.

                  HCLT2009행사는 매년 열리는 학회이나 예전에 비해 규모면에서 점점 줄어가는 느낌은 어쩔 수 없다.
                  공과계열이 천대받는다는 느낌은 여기서도 느낄 수 있는 듯...

                  by 슈퍼맨 | 2009/09/15 13:20 | 기술 | 트랙백 | 덧글(0)

                  STS2009 참관 후기

                  어제 STS2009행사를 참가하였는데 요즘에 할일이 많이 지면서 이제야 후기를 남기게 되었다.

                  1. 전체느낌

                  - 행사 자체는 비교적 깔끔하게 진행이 되었다.
                  - 신문기사에는 일천명이 넘는 참관객이 왔다고 하였으나, 작년에 비해 10%~15% 정도 줄은 것 같다. –> 대략적인 느낌임
                  - 주관사, 참여사부스 간에 모여드는 사람의 수가 확연하게 차이가 났다 –> 이유는 잘 모르겠음
                  - 쓰리웨어가 처음에 행사하다고 할때는 참관사로 있었는데 실제로는 빠졌다.  --> 오픈베이스는 이미 빠졌었음
                  - 예상한대로 너무 대놓고 자사의 제품을 홍보하는 발표가 몇몇 눈이 띄었다. –> 특히 참관사..
                  - 대략적으로
                               시맨틱 기술                : 3편
                               개인화                       : 1편
                               검색UX와 기술의 조합  : 1편
                               텍스트 마이닝             : 1편
                               검색품질 기술             : 1편
                               멀티미디어 검색          : 1편 
                               걍~ 제품홍보               : 3편  --> 기술적으로 새로운 시도/개념의 제품도 아니었다.

                  2. 세션별 느낌

                  • Keynote – 검색의 미래, 디스커버리 Semantics for Searching and Mining – What, Where, and How? - 맹성현 교수/KAIST 
                        참석하였음.
                        세미나의 슬로건(“디스커버리! 검색의 미래를 만나다”)에 가장 적합한 내용이 아니었을까?
                        semantics기술을 3가지 타입으로 나누고 각각에 대한 설명과 예를 보여주었다.
                  • 시맨틱 검색과 시맨틱 분석의 실용 기술 구현 – 이경일 대표 / 솔트룩스
                        참석하지 않음
                        솔트룩스의 전반적인 기술적 어프로치를 설명
                        자료상으로는 TopicRank를 이끌어 내는 과정과 그후의 내용은 약간 괴리감이 존재한다는 느낌
                        TopicRank를 이용해서 얼마나 검색품질을 끌어올릴 수 있었는지에 대한 통계데이타가 있었으면 더 좋지 않았을까?
                        참고로 솔트룩스 부스에서 아울림이 보이지 않았던 것은 약간 의외
                  • 사용자 모델링을 이용한 검색서비스 구축전략 – 정휘웅 차장 / 다이퀘스트
                        참석하지 않음
                        쇼핑몰 강자답게 쇼핑몰을 예제로 검색UX 및 검색기술의 융화방법론을 설명
                        검색기술에 관련된 내용은 기존 업체들일 이미 몇년전부터 이야기 하던 것들이라 신선하지는 않았음
                        대신 검색UX와 관련된 접근은 다이퀘스트가 아니면 고민하기 힘든 부분이어서 신선했음
                  • 감성검색과 텍스트 마이닝 – 이상주 박사 / 다음소프트
                        참석하였음
                        감성(Sentiment)에 대한 검색방법을 설명
                        예전부터 온라인 풍문에 관한 프로젝트를 많이 하여서인지 데모 프로그램의 전체적인 짜임새는 거의 완벽
                        기술적인 부분 이외에 매직(????)을 많이 사용하였다는 생각은 지울 수가 없음
                        하지만, 매직도 기술이고 노력이니 인정...
                       
                  • 프로파일링을 이용한 검색의 개인화 – 윤진섭 부장 / 마이크로소프트-패스트
                        참석하지 않음
                        4~5년전에 Verity, 작년에 오픈베이스가 내놓은 개인화검색과 같은 기술에 대한 설명
                        이미 개인화에 대한 시장의 반응은 나온것 같은데...
                  • 멀티미디어 환경에서 구현한 차세대 내용 기반 검색 – 박만수 박사 / 코난테크놀로지
                        참석하지 않음
                        코난테크놀로지에서 몇년전부터 밀고 있는 멀티미디어 검색에 대한 설명
                        자료상으로는 기술이 쏙~ 빠지고 주로 사례를 중심으로 설명하여 약간 김이 샌듯한 느낌
                  • Proximity Language Model – 윤여걸 이사 / 와이즈넛
                        참석하였음
                        SIGIR ‘09에 발표하였던 검색품질(검색랭킹)을 개선하는 방법에 대한 논문을 설명
                        문서내에서 쿼리단어가 얼마나 가깝게, 자주 나타나는지를 계산하여 검색랭킹에 반영하는 방법
                        세미나를 시작하기전엔 사람들이 확~ 빠져나가서 반정도 밖에 없었음 –> 역시 학술전문 세미나는 관심이 떨어짐
                       
                  • Enterprise Social Network을 활용한 Knowledge Discovery – 김승연 차장 / IBM
                        참석하지 않음
                        IBM의 SNF(Social Network Framework)제품을 소개
                        단순하게 이야기하면 기관(혹은 회사)내에서 구성원들간의 Action(댓글달기, 메일보내기, 회의참석 등)을 분석하여
                        사람들간의 관계 및 어떤 분야의 전문가를 찾아주는 시스템
                        간단하게 무슨 효과가 있을지를 생각할 수도 있는데, 규모가 아주 큰 회사에서는 적당한 사람을 찾는 것 또한 굉장한 리소스가 들게 마련이다.
                        부스에서 간단하게 시연을 구경하였는데 그다지 감흥은 없었다는...
                       
                  • 아웃링크 버티컬통합검색 개발에 사용된 차세대 검색기술 소개 – 류홍진 대표이사 / 건지소프트
                        참석하지 않음
                        노 코맨트
                  • 시맨틱 정보서비스의 진화 – 정한민박사 / KISTI
                        참석하였음
                        온톨로지와 미래의 인터넷에 대한 설명
                        개인적으로 Web 3.0을 논하는걸 좋아하지 않지만, Mashup에 관련된 부분은 공감이 감
                        참고로 Ontoframe에 대한 설명를 다이퀘스트 부스에서 하고 있었던 것 같음
                  • 강력한 문서필터엔진 오라클 Outside-in – 장경운 부장 / Oracle
                        참석하였음
                        오라클에서 출시한 문서필터 제품 Outside-in이란 제품 홍보
                        한글파일까지 필터링되는것은 와우~ 
                        하지만, 삼성그룹에서 사용하는 훈민정음, 정음글로벌 문서는 필터링이 않된다는…
                        가격이 사이냅보다 매력적일까?

                  by 슈퍼맨 | 2009/09/10 11:55 | 기업검색 | 트랙백 | 덧글(2)

                  Search Technology Summit 2009개최

                  작년 1회에 이어 두번째로 Search Technology Summit 2009가 2009년 9월 8일 그랜드인터컨티넨탈호텔에서 열린다.

                  하지만, 작년에 비해 몇가지 바뀐 부분이 있다.

                  1. 주관사가 생겼다.
                        아무래도 업무진행을 원활하게 하기 위해서 일 것이다.
                  2. 주최사에서 오픈베이스가 빠지고 다음소프트가 들어갔다.
                        쓰리소프트가 빠진것은 알겠는데… 오픈베이스도 빠졌다.
                        예상컨데 비용때문은 아니 것 같고 다른 문제가 있으리라…
                  3. 주최사 이외에 참여사가 생다.
                        컨퍼런스 자체가 무료로 진행되기 때문에 주최사쪽에서는 아무래도 비용이 문제가 된다.
                        때문에, 참여사를 늘려 비용을 낮추려 했으리라…
                  4. 교수님들 발표비중이 확~ 줄고 대신 참여사 발표가 생겼다.
                        이 부분에서 작년의 취지와는 약간 달라진 듯한 느낌이 드는건 어쩔 수 없다.
                        물론 작년에도 교수님들 초빙을 업체에서 했기 때문에 업체의 입김(?)에 완전히 자유롭지는 못하였지만
                        올해는 아예 대 놓고 회사/제품 홍보(?)하겠다는 것이다.
                        때문에, 올해는 대학생들 보다는 실제 업무에 적용해야 하는 직장인들이 더 유용한 컨퍼런스가 될 듯 하다.

                    뭐… 어째튼 나는 가능하면 참석할 예정이다.
                    물론, 가서 만나는 사람은 별로 없겠지만 어떤 제품과 기능들을 홍보하는지 알아보는것도 큰 공부가 되니까…

                  by 슈퍼맨 | 2009/08/18 09:55 | 기업검색 | 트랙백 | 덧글(0)

                  ◀ 이전 페이지다음 페이지 ▶