세계 디지털인문학 대회 2015의 참가 제안이 시작되었습니다. 2015년 6월 29일부터 7월 3일까지 호주 시드니에서 세계 디지털인문학 대회(DH 2015)가 개최됩니다. 세계 디지털인문학 최대 포럼인 만큼 디지털인문학의 현주소를 가장 잘 알 수 있는 기회이자, 자신의 성과를 세계에 알릴 수 있는 기회입니다. 마감이 2014년 11월 3일인만큼 한국에서도 많은 참가자가 있었으면 좋겠습니다....정작 저는 어떻게 할런지...돈...돈이...쿨럭 -0-;;;



세계 디지털인문학 대회(DH2015) 홈페이지

http://dh2015.org/


세계 디지털인문학 대회(DH2015) 논문 공모

http://dh2015.org/cfp/





On Latour's Notion of the Digital


세계디지털인문학대회 2014의 기조연설을 한 라투르(Latour)의 디지털 개념에 대한 논의이다. 라투르는 디지털의 특이성을 부정한다. 그는 디지털은 표현 형식의 변환일 뿐 아날로그와의 본질적인 차이는 없다고 주장한다. 본인도 결국 인간의 인간에 의한 인간을 위한 연구가 인문학이기에 디지털로 변환되었다고 그 본질이 변화하지는 않는다고 판단한다. 다만 그 방법은 분명히 달라지게 된다. 돌에 글을 기록하는 것과 종이에 글을 기록하는 것은 당연히 다르지 아니한가?


그 외의 논의사항은 그다지 본인의 관심사항이 아니다. 디지털의 개념에 대한 디지털인문학자의 관심이 궁금하다면 한번 글을 살펴보기 바란다. 다만 한가지만 반드시 알고 있어야 한다. 본 논의에 참가하고 있는 모든 이들은 실제 디지털인문학 실무를 경험하였다. 디지털인문학 실무를 경험하지도 않고 이론으로만 접근하는 것이 결코 아니다. 당구에 대해서 말하려면 300이상은 무리라도 최소한 150은 쳐야 되지 않겠는가?! 야구에 대해서 논평할려면 최소한의 규칙을 습득하고 캐치볼 정도는 해봐야하지 않겠는가?!


본 내용은 項潔 編,《數位人文研究與技藝》,國立台灣大學出版中心, 2014年의 王汎森,數位人文學之可能性及限制 – 一個歷史學者的觀察을 읽고 자의적으로 해석하여 정리한 내용이며, 왕판션 논문의 내용과 상이할 수도 있다.

 

왕판션은 디지털인문학의 장점을 디지털화와 데이터 처리 효율성, 교류와 교육 방법의 혁신에 있다고 보았다. 그리고 가능성으로 1) 데이터의 정량화를 통한 “무의 역사” 연구방법론의 확대 2) 인문 빅데이터 활용 3) GIS(지리정보시스템)을 통한 공간 사고력 향상을 거론하였다.


1. “무의 역사” 연구방법론은 방대한 사료의 공백을 통한 연구를 의미한다. 예를 들어서 곽말약(郭沫若)는 고문헌 진위 판별법에서 금문에 해당 고문헌 내용 출현하지 않는다면 위서로 판별할 수 있다고 하였다. 문제는 방대한 금문을 모두 살펴보고 해당 내용이 없다고 진단하기가 쉽지 않다는 점이다. 그러나 디지털인문학에서는 간단하게 존재하지 않거나 존재하더라도 소수라고 분명히 말할 수 있다.


2. 인문 빅데이터는 방대한 사료와 빠른 데이터 처리를 기반으로 기존에 연구가 힘들었던 다점접 연구방법을 손쉽게 활용 가능하다는 의미이다. 예를 들어서 유럽의 Mapping the Republic of Letters는 유럽 개몽시기의 문인들 간의 편지 데이터를 바탕으로 GIS 기술을 활용하여 프랑스의 사상이 영국으로 유입되었다고 단정할 수 있었다.


3. GIS(지리정보시스템)는 기존의 인문학자들이 사료에 매몰되어서 쉽게 간과하던 공간에 대한 인식을 전환하고 향상시킬 수 있다고 판단하였다.


 

그렇다면 왕판션이 생각하는 디지털인문학의 한계는 무엇인가?

1) 사료의 단편화로 시야가 좁아진다.

디지털인문학으로 인하여 그 동안 10년이 넘는 시간 동안 읽어야 되는 사료를 간단한 검색으로 원하는 결과를 얻을 수 있게 되었다. 그러나 24사에 대한 내용을 검색해서 원하는 결과를 얻는 것은 결코 24사를 통독하는 것을 대체할 수 없다. 수 많은 사료 데이터에 대해서 단순한 검색어로 접근할 경우, 사료들의 특성을 간과하거나 선후관계에 대한 고찰이 부족해질 염려가 높다.


가장 좋은 것은 해당 사료들에 대해서 통독도 하고, 필요한 정보를 검색을 통해서 얻는 것이다. 그러나 방대한 사료를 모두 통독할 수도 없는 노릇이고, 그렇다고 역사적 시야를 좁히는 것은 더더욱 있어서는 안될 일이다. 양자를 어떻게 “적당히” 활용하느냐는 지속적인 문제로 남을 가능성이 높다.

 

2) 발산과 수렴의 본질적 차이

인문학은 보통 특정 사건에서 문제의식을 느끼고 해당 문제의식에 대한 외연을 넓혀간다. 그런데 디지털인문학은 수 많은 데이터를 우선적으로 구축하고, 데이터를 활용하여 데이터를 구조화한다. 이 둘은 서로 상생할 수도 있지만, 상극이 될 가능성이 분명히 존재한다.

 

 

마지막으로 왕판션은 이기론(理氣論)을 거론하며, 인문학은 이(理)로서 사물의 본질이고, 디지털인문학은 기(氣)로써 사물을 담는 그릇으로 비유한다. 이와 기는 서로 다르면서 서로 같은 존재라는 점을 분명히 한다.

 

 


바로 : 왕판션이 지적한 디지털인문학의 한계를 매우 재미있게 보았다. 그런데 디지털인문학을 주장하는 본인도 원래 역사학도였고, 대충이나마 춘추삼전과 자치통감을 통독하였다. 이건 당연히 전통 영역에서 지속적으로 시켜야되는 영역이며, 넓은 역사적 시각을 갖는 것은 역사 교육의 핵심 중에 핵심이다. 그런데 반대로 생각하면 결국 방대한 사료의 바다에서 25사도 조그마한 일부분일 뿐이다. 결국 모든 사료를 읽는 것은 인간에게는 불가능하다. 


가장 재미있는 것은 인문학과 디지털인문학을 이기론과 비유한 부분이다. 정말 수 많은 생각을 하게 되는 내용이 아닐 수 없다. 정반합...이를 위한 가장 좋은 방법은?! 

 

본 데이터는 조선후기 김정호의 대동여지도와 2002년도 한국마사회 마사박물관에서 편찬한 한국역제사의 역로를 기초자료로 사용하였습니다. 입력된 대로는 의주대로, 함경대로, 영남대로, 호남대로입니다. 




20140824_조선대로_김바로.kmz



역참의 정확한 위치는 아직 고증되지 않은 곳이 있기에 100% 정확한 고증은 아닙니다. 다만 최대 범위 10KM 내에는 무조건 해당 역참이 존재하였을 것이며, 사실상 남한은 반경 3KM내, 북한은 5KM내에 실제 해당 역참이 존재합니다. 


실록사전 프로젝트를 수행하면서 자료 검토 및 활용가능성 타진용으로 꽉찬 하루동안 만들어보았습니다. 결과적으로 프로젝트에서는 사용하지 않을듯 해서 공개합니다. 오류가 있을시 언제든지 신고 부탁드립니다.



구글어스를 모르시는 분들을 위해서.
구글 어스 홈페이지 : http://earth.google.com/intl/ko/

구글 어스는 구글에서 제공하는 무료소프트웨어입니다. 그 중에서 구글어스를 통해서 좌표나 선을 이용해서 자신만의 지도를 만들 수 있는 기능이 있습니다. 이러한 파일들은 KML으로 저장됩니다. 구글어스가 설치되어 있다면, KML 파일을 클릭만 하여도 자동으로 위의 화면이 나타나게 됩니다. 


인문학과 디지털인문학의 관계는 이기론(理氣論)의 이기(理氣)간의 관계와 유사하다. 디지털인문학은 기(氣)로서 사물을 담는 그릇이고, 인문학은 이(理)로서 사물의 이치 자체를 말한다. 물론 디지털인문학은 어디까지나 인문학 연구를 위한 그릇일 뿐이며, 더 뛰어난 연구방법론이 발견된다면 언제든지 없어질 수 있다. 그러나 최소한 100년내로는 디지털인문학의 방법론을 뛰어넘는 인문학 연구 방법론이 나올 수 없다고 생각된다.


이기론 때처럼 극단으로 서로 나누어지려는가?! 결국 이기론도 이와 기 모두가 중요하다로 회귀하였다. 인문학과 디지털인문학과 다르지 않으리라 생각한다. 다만 서로 나누어지는 기간은 과거의 경험을 통해서 최대한 단축될 수 있기를 소망할 뿐이다.




미국 NEH 디지털인문학 프로젝트에 대한 리뷰를 담고 있다. 개인적으로 직접 올려둔 링크로 가서 경험을 해보고, 본인의 인문학 연구에 어떻게 응용이 가능할지 고민해보았으면 한다. 


단! 포럼에서도 강조하였지만! 디지털인문학은 인문학의 인문학에 의한 인문학을 위한 방법론이며 학문분과이다. 자신이 할 자신이 없어서 무시를 하든 도태가 되든 상관이 없다. 그러나 제대로 알지도 못하면서 철학의 온톨로지를 "기술"로 치부하는 등의 사실을 왜곡하는 행위는 하지 않았으면 한다.


그리고 설령 기술적인 내용이 나와도 쫄지마라. 누가 프로그래밍 수준까지 다 하라고 했는가?! 그 개념을 이해하고 기본적인 설계까지 할 수 있는 정도면 충분하다. 오히려 프로그래밍까지 다 하겠다고 하는 것은 축구선수가 갑자기 야구선수를 하겠다는 것과 다를바가 없는 바보짓이다. 물론 둘 다 하는 극소수의 사람도 있지만, 그건 극소수일 뿐이다. 



20140819_미국NEH의디지털인문학_김바로.pptx





인문학자를 위한 디지털인문학 교육


 추진 배경

 디지털 시대에 인문학을 융성할 수 있는 디지털인문학 교육의 필요성

- 디지털인문학은 세계적으로 인문학 위기의 타개책으로 주목 받고 있으며, 창조경제의 토대가 되는 인프라 구축 가능

 “초중등SW교육활성화 정책”에 필수불가한 인문학 소질을 갖춘 초중등SW 교육자 양성을 위한 전문 교육자 양성의 필요성


 사업 목적

 디지털 시대의 인문학 도약을 위한 디지털인문학 방법론 교육

 인문학 대중화를 통한 창조경제 인프라를 구축할 능력을 갖춘 디지털인문학자 양성


 사업 방향

 인문학자를 대상으로 한 디지털인문학 방법론 교육

 방학기간을 이용한 1~2주간의 집중 교육

 디지털인문학 방법론 교육 및 실습

- 디지털인문학 DB 구축 영역(XML, TEI, RDB 등)

- 디지털인문학 분석 영역(말뭉치(Copus), 지리정보시스템(GIS), 사회 네트워크(Social Network 등)

- 디지털인문학 시각화 영역(멀티미디어, 파노라마, 3D 모델링 등)

- 디지털인문학 교육방법 영역

 사업 결과물은 정부 3.0에 따라 모든 이들의 접근이 가능해야 함

- 접근성과 확산성을 위하여 필히 온라인으로 공개되어야 함



디지털인문학교육_초안_김바로.pptx





바로 : 심심풀이?! 겸 프로젝트를 위해서 구상한 내용입니다. 기본적으로는 미국 NEH의 디지털인문학자 양성교육 프로그램들을 참고하였습니다. 아직 다듬어야되고 보충해야될 내용이 많지만...그냥 너무 오래동안 글을 안 올려서...~.~;;;


개인적인 생각일수도 있지만, 객관적으로 아무리 생각해보아도 석박사이상을 대상으로 하는 교육은 현재 한국학중앙연구원 인문정보학 전공의 교육과정이 최고라고 생각된다. 실제로 미국이나 다른 국가의 디지털인문학 교육 과정을 보아도 한중연의 과정과 크게 다른 점이 없다. 대표적인 미국의 2주간의 집중과정이 한중연 한학기 프로그램과 비슷하다. 




다만 대학생을 대상으로 한 교육에서는 고민이 남는다. 사실 기술 자체는 오히려 대학생들이 더 쉽게 받아들일 수 있다.(물론 대상이 되는 인문학 데이터 자체의 수준은 떨어지며, 떨어져야 한다.) 그러나 디지털인문학을 할 수 밖에 없는 절박함이 없이 기술만을 배우는 것은 문제가 될 수 있다. 


예를 들어서 디지털 조선왕조실록은 인문학자에게 훌륭한 디지털인문학의 기본을 보여준다. 그러나 조선왕조실록을 완독하거나...완독까지는 아니더라도 일정이상의 전체 문장을 보지 않고, 검색을 통한 단편적인 자료 취득은 인문학의 쇄락으로까지 이어질 수 있는 중대한 문제이다. 물론 이건 디지털인문학의 문제라기 보다는 인문학에서 어떻게 전통 인문학 교육과 디지털인문학 교육을 병행하느냐의 문제에 가까우며, 디지털인문학에 집중하는 본인으로서는 살짝 거리가 있기는 하다. 




김현_디지털인문학(20140822).pptx




바로 : 디지털인문학이 떠오르고 있다. 그 동안 디지털을 활용하여 인문학의 상업성을 강조해 온 문화콘텐츠는 기회이자 위기를 맞이하고 있다. 문화콘텐츠 10년. 젊은 신진들은 학문적으로 인정 받는 것도 아니고, 확실히 일자리가 보장되는 상업성이 있는 것도 아닌 문화콘텐츠에 대한 불만이 누적되어 있다. 


김현은 디지털인문학을 통한 취직자리로 디지털문맹을 퇴치하기 위한 교육 인력의 양성을 제안하고 있다. 한국의 최대 시장이 교육 시장인 점을 생각하면 전망이 밝다고 할 수 있다. 무슨 말이 더 필요할까?! 


다만 김현이 제시한 디지털인문학은 분명 인문학자를 직접 대상으로 삼고 있다. 그럼 문화콘텐츠의 역할은 무엇인가?! 아무리 인문학자들이 디지털인문학에 접근을 해도 기본적인 방법론을 익히는 수준일 것이다. 새로운 방법론을 개발하고, 방법론을 교수하는 역할이 기존 문화콘텐츠가 할 수 있는 역할이다. 만약 문화콘텐츠가 하지 않으면?! 문화콘텐츠는 지금과 같은 애매한 지점에서 계속 애매하게 있게 될 것이고, 새로운 학과나 세력이 등장할 것이다. 디지털인문학은 시대의 요구이기 때문이다. 








http://acrl.ala.org/dh/2014/04/09/defining-digital-social-sciences/


Defining Digital Social Sciences(디지털 사회 과학의 정의)는 사회과학 영역에서의 디지털 인문학 방법론에 대해서 간략하게 소개하고 있다. 주 관심사가 사회과학 영역이지만, 인문학에서도 적용 가능한 내용들이다. 


저자는 디지털인문학의 사회과학 영역에서의 적용에 대해서 "디지털 사회과학"으로 정의하였다. 그리고 사회과학 영역과 방법론으로 "네트워크", "지리정보시스템", "디지털 문화유산", "인터넷연구"을 거론하고 있다.


제일 좋은 것은 해당 내용을 번역해서 소개하는 것이겠지만......언젠가?! 먼 훗날에?! 긁적...




http://verificationhandbook.com/book/about.php


사용자 생성 콘텐츠(UGC) 검증 방법론(A definitive guide to verifying digital content for emergency coverage)은 사용자가 웹에 올린 텍스트, 이미지, 비디오 등의 사실 여부를 어떻게 검증하고 활용하는 것에 대한 단계별 지침을 제공하고 있다. 


수 많은 사람들에 의해서 탄생되어 웹에 전파되는 콘텐츠는 웹의 강력함을 나타내 준다. 그러나 콘텐츠의 정확성 문제는 끊임없는 아킬레스건으로 작용하고 있다. 그렇다고 웹의 콘텐츠를 포기하는 것은 구더기가 무서워서 장을 못 담그는 것과 같다. 그럼 어떻게 웹 콘텐츠의 질을 보장할 것인가?! 


언론 계열로 관심이 있으신 분들에게는 상당히 괜찮은 내용으로 보인다.


코트 교수는 "이론 컴퓨터과학과 수학은 사실상 차이가 크지 않다"며 "연구 동기가 컴퓨터과학에서 올 뿐이고, 효율성과 시간 등의 측면에 연구가 집중돼 있다는 것은 컴퓨터과학의 특징이지만, 답을 내는 방법은 결국 수학"이라고 강조했다.


출처 : 코트 교수 "자신있게 관심분야 전공 선택하길


디지털인문학과 인문학은 사실상 차이가 크지 않다. 연구 동기가 디지털인문학에서 올 뿐이고, 효율성과 시간 등의 측면에 연구가 집중돼 있다는 것은 디지털인문학의 특징이지만, 답을 내는 방법은 결국 인문학이다. 




http://www.ardenkirkland.com/costumecore/



의상코어(Costume Core)는 의상과 의상 카탈로그를 디지털하기 위한 메타데이터 표준을 제공하고 있습니다. 단순한 기술문서 뿐만이 아니라, 실무에서 곧장 적용이 가능할 정도의 세부적인 기술문서와 샘플들을 제시하고 있다. 무엇보다 해당 메타데이터는 historicdress 프로젝트(http://historicdress.org/)에서 실제로 적용되고 있는 실무지향형 메타데이터이다.


의상에 관심 있는 분들은 참고할 만한 자료라고 생각된다. 



디지털인문학을 외치는 본인에게 '기술"을 너무 강조하는 것이 아니냐는 소리를 자주 한다. 그런데 디지털인문학이 강조하는 것은 결코 "기술"이 아니라 "인문학"이며, 본인도 인문학 지상주의에 가까울 정도의 인문학 본위적인 생각을 가지고 있다. 


우리가 수 천년간 이어내려온 종이와 펜을 버리고, 컴퓨터에서 워드(한글)로 글을 쓴다고 인문학을 버리는 것인가?! 단지 디지털과 워드라는 툴을 사용하고 있을 뿐이다. 디지털인문학은 단지 워드보다 더 효율적으로 컴퓨터를 활용할 수 있는 방법론을 제시하고 있는 것이다. 그리고 이런 컴퓨터쪽의 방법론은 결국 철학에서 파생된 개념에서 발전하였기에 인문학자가 두려움만 버리면 훨씬 쉽게 접근이 가능하다.


인문학의 목표가 사서삼경의 토씨하나 빠지지 않고 외우는 것과 같이 방대한 지식을 암기하는 것인가?! 아니다. 인문학은 지식을 바탕으로 지혜를 축적하는데 목표를 두고 있다. 이제 지식의 축적은 컴퓨터에게 맡겨두고 인문학 본연의 목표인 지혜에 접근해야하지 않는가? 아니면 자료를 찾기 위해서 사방팔방 돌아다니는 것이 인문학의 목표라고 하고 싶은가? 모든 인문학 자료를 암기하는 것이 인문학의 목표라고 할 것인가?


지난 10년동안 한국은 문화콘텐츠의 "산업화" 화두에 매몰되었다. 인문학의 문화콘텐츠를 통한 산업화는 시장경제체계의 우리 사회 속의 인문학의 역할로서 나름 의미가 있다. 그러나 인문학이 언제부터 짤랑짤랑 돈을 쫒았는가?! 인문학은 바보처럼 미련하게 상아탑 소리를 들으며 앞으로의 100년을 미리 준비하지 않는가?! 


디지털인문학은 디지털기술을 도입한 인문학의 인문학에 의한 인문학을 위한 인문학 연구 방법론이다. 이제 검색과 같은 기초적인 "분석"에서 벗어나서 말뭉치(코퍼스), 네트워크, 지리정보시스템(GIS) 혹은 그 이상의 인문학의 인문학에 의한 인문학을 위한 디지털기술을 활용한 분석에 돌입해야하지 않겠는가?! 물론 어떠한 분석방법을 사용하더라도 최종적인 "해석"은 아직 인문학의 영역이며, 인문학의 영역이여야만 한다.   




아놔! 다 떠나서....일단 해보고 이야기하자. 솔직히 안 어렵다고!!! 30대면 왠만한 디지털인문학 방법론은 1시간내로 이해 가능하고 하루면 직접 간단하게나마 실험해볼 수 있다고!!! 진짜라고!!! 쉽다고!!!



박근혜 대통령이 참가한 가운데 대통령 소속 자문위원회인 문화융성위원회 산하 인문정신문화특별위원회의 제안을 토대로 교육부와 문화체육관광부는 "인문정신문화 진흥 7대과제"을 발표하였다.


▲ 초·중등 인성교육 실현을 위한 인문정신 함양 교육 강화 

▲ 인문정신 기반 대학 교양교육 개선 

▲ 인문 분야 학문 육성 

▲ 전국 문화 인프라를 활용한 문화체험 확대 

▲ 인문자산과 디지털 연계 프로젝트 지원 

▲ 은퇴자의 청소년 교육 참여 등 문화 향유 프로그램 다양화 

▲ 국제교류 활성화


또한 인문정신문화특별위원회는 미국의 NEH(국가인문학재단)과 같은 국가차원의 진흥기구 설치도 제안하였다. 


본인의 관심영역인 디지털인문학의 입장에서 이번 "인문정신문화 진흥 7대과제"을 살펴보았다. 직접적으로 관계가 있는 것은 "인문자산과 디지털 연계 프로젝트 지원"일 것이다. 


 "인문자산과 디지털 연계 프로젝트 지원"은 디지털인문학에서는 기본 중에 기본으로 다루어지는 영역이다. "인문자산과 디짙러 연계 프로젝트 지원"은 "디지털인문학 지원"과 같다고 생각된다. 다만 지난 10년동안의 디지털연계가 실패라고 생각되는 핵심인 인문학자가 배제된 디지털 연계를 답습하지 않아야 할 것이다. 


인문학자의 인문학자에 의한 인문자산의 디지털 연계가 되어야 한다. 다시 말해서 인문학자가 스스로 디지털 연계를 할 수 있어야 한다. 업체에 디지털 연계를 시키는 것은 돈을 날리는 것 밖에 되지 않는다. 인문학자는 자신의 인문학 지식이 제대로 디지털 연계되기를 원한다면 직접 할 줄 알아야 한다. 직접 하지 않고 업체가 알아서 다 할 것이라고 생각하는 것은 마치 업체가 인문학자만큼의 인문지식을 가지고 있다고 생각하는 것과 하등 다를바가 없다. 


대부분의 인문학자들은 디지털 연계를 못한다고?! 그럼 배워라. 대체 인문학자들은 무슨 용가리 통뼈라고 새로운 것을 피하려고만 하는가?! 개인적으로 그런 사람들을 볼 때마다 그렇게 디지털이 그리도 싫으면 워드(한글)을 쓰지 말고 원고지에 논문을 쓰라고 말해주고 싶다. 무엇보다 워드를 배울 수 있으면 디지털인문학 방법론을 배우는데 그다지 어려움이 없다. 본인 주변에는 70에 가까운 나이에 디지털인문학을 공부하시는 분도 있으시다. 그러니 온갖 핑계를 대며 두려움을 포장하지 마라. 디지털인문학은 쉽다!


물론 국가차원에서는 인문학자를 대상으로 한 디지털 연계를 위한 교육을 마련해야할 것이다. 교육이라는 것은 어디까지나 씨앗을 뿌리는 작업이다. 그렇기에 효과가 비교적 즉각적으로 나타나지는 않는다. 하지만 씨앗이 자라서 꽃이 되고, 다시 또 다른 씨앗을 낳으며 인문학이 꽃 피울 것이다. 무슨 말이 필요 있는가?! 교육은 백년대계이다.


그 외에 "인문 분야 학문 육성"은 너무나 추상적인 내용이라서 무엇이라고 말하기가 애매한 사항으로 보인다. 인문 분야에 돈을 더 지원해줄 모양인가 보다?! 국제교류 활성화 부분에서는 두가지만 말하고 싶다. 해외의 소위 선진국의 학계의 대세는 "디지털인문학"이다. 아니! 국제교류에 디지털이 어떻게 빠지겠는가?! 요즘 누가 사전이나 강좌를 찾아다니는가?! 인터넷으로 모든 자료가 공개되는 세상이다.(...곁다리로 게임팬으로서 게임문화의 국제교류 활성화도 쫌......대체 음악, 드라마를 싹다 합친 것보다 2배 이상의 돈을 벌고, 전세계 게이머들에게 한국짱! 이라는 소리를 당연히 듣는 게임문화 영역이 어째서 이렇게나 천대를 받아야되는 것인지...)


"은퇴자의 청소년 교육 참여 등 문화 향유 프로그램 다양화"의 경우 개인적으로 전통적인 방법에서 탈피해서 온라인으로 옮겨왔으면 한다. 어차피 대부분의 청소년들은 그런 강의가 있으면 그냥 잔다. 어떤 청소년이 노인네가 주저리주저리 하는 것을 열심히 듣고 있겠는가?! 그냥 TED와 같은 모델을 활용해서 온라인을 통해서 강의를 완전히 오픈해버려라. 그럼 학생들은 원하는 시간에 원하는 강의를 들을 수 있고, 강사들은 자신의 실력을 적나라하게 평가받게 될 것이다. 실제로 소요 예산자체도 훨씬 더 저렴하게 든다. 또한 명강의는 네티즌들이 자발적으로 자막까지 입혀서 해외에 전파할 것이다. 이것이 창조경제이고, 정부 3.0인것이다. 



다만 개인적으로 이상한 것은 "미국 NEH와 같은 국가 차원의 진흥기구 설치를 제안"했다는 것이다. 문제는 한국에는 미국 NEH와 같은 인문학진흥기관은 이미 존재한다. 한국연구재단이다. 그런데 뭔 미국 NEH와 같은 인문학진흥기관을 또 만든다는 말인지 모르겠다. 한국연구재단에 대한 견제인가? 아니면 또 다른 밥그릇 만들기인가? 도통 뭔지 모르겠다. 뭐지?? 굳이 미국 NEH을 따라할려면 현재 NEH의 핵심 사업인 디지털인문학 정책이나 따라해줬으면 좋겠다. 괜히 Post-HK라고 해서 눈먼 돈 뿌리는 일이 될 가능성이 농후한 소규모 인문랩에 1억~1억5천만원씩 지원하는 사업 대신에 말이다.

 


* 아직 정식 포스터가 없어서 제가 5분만에 적당히 만들었습니다. 저의 놀라울 정도로 허접한 예술감각이 적나라하게 묻어나는 포스터군요. 음하하하...정식포스터가 만들어지는대로 교체하도록 하겠습니다.




한국연구재단의 지원을 받아 인문콘텐츠학회에서는 최근 전 세계적으로 회자되고 있는 디지털인문학과 한국에서 발생한 문화콘텐츠와의 상관관계를 고찰하고, 그에 입각하여 인문학의 적절한 산학협력 연계방안을 모색하고자 합니다. 지난 731차 포럼에 이어, 2차 포럼을 개최합니다. 많은 참석바랍니다.

 

인사말 : 박경하(중앙대, 인문콘텐츠학회 회장)

사회 : 김기덕(건국대)

1주제

디지털인문학과 문화콘텐츠(15:00 - 17:00)

발표 1

한동현(한국외대), 문화콘텐츠학의 새로운 포지셔닝: 디지털인문학

발표 2

홍정욱(한국학중앙연구원), 세계디지털인문학포럼(스위스 로잔) 분석

발표 3

김동윤(건국대), 프랑스 디지털인문학 소개

토 론

최희수(상명대학교), 백승국(인하대), 고운기(한양대), 신광철(한신대)

휴식(17:00 - 17:20)

2주제

디지털시대 인문학 성과의 산업화 방안 연구(17:20 - 18:20)

발표 1

박경하(중앙대), 인문학분야 전략적 국책연구 지원사업 계획안

발표 2

김현(한국학중앙연구원), 인문학 디지털콘텐츠 개발사업 계획안

발표 3

유동환(건국대), 인문브릿지(Human Bridge) 사업 계획안

토 론

* 청중 토론으로 진행함

 

장소 : 건국대 문과대학 교수동 401

일시 : 2014820() 오후 3- 620

공동주최 및 후원 : 건국대학교 BK21플러스사업단

장소 문의 : 김태룡(010-3792-2461)

 

* 포럼시 간단한 간식이 제공되며, 회의 후 전체 회식이 있습니다.





 



바로 : ...발표자에는 이름이 없지만....저도 중간에 살짝 발표를 할 듯 보입니다. 머...별 내용은 아닙니다. 고로 제가 발표하면 잠시 화장실을 갔다 오시면 됩니다...쿨럭-0-;; 그나저나 나름 DH2014 키워드 네트워크를 배경으로 해서 예쁘게 포스터를 만들어볼까 했지만...역시나 예술감각 빵점을 자랑하는 저의 작품이 완성되는군요.


원소스출처: DH2014.org , 네트워크툴 : gephi

대체...컴퓨터가 네트워크 알고리즘으로 만든 것이 더 예쁜 짜증나는 현실이라니...하아...그것도 칙칙한 단색모드로 해놓은 건데.....내가 컴퓨터님의 작품을 망쳤구나...망쳤어...망쳤어......ㅠㅠ



서울--(뉴스와이어) 2014년 07월 29일 -- 문화체육관광부(장관직무대행 김희범 제1차관, 이하 문체부)와 대통령직속 청년위원회(이하 청년위) 및 동아일보가 공동으로 주최하고 한국문화정보센터(소장 최경호)가 주관하는 ‘제2회 정부3.0 문화데이터 활용 경진대회’가 7월 30일부터 10월 31일까지 총 3개월간 진행된다. 


문화데이터를 활용한 민간의 새로운 사업 창출을 유도하기 위해 추진 


작년에 이어 두 번째로 개최되는 이 경진대회는 문체부 소속·공공기관이 보유하고 있는 문화예술, 문화유산, 문화산업, 도서, 관광, 체육, 정책홍보 7개 분야의 공공정보(이하 문화데이터)를 민간에서 효율적으로 활용할 수 있는 방안을 모색하고, 우수 아이디어와 제품에 대한 다양한 지원프로그램을 통해 민간이 문화데이터를 활용해 새로운 사업을 창출할 수 있도록 유도하기 위해 추진되는 것이다. 


‘제품 개발’, ‘아이디어’ 2분야로 진행, 우수작은 창업으로 이어질 수 있도록 지원 


공모는 ‘웹/앱 또는 제품 개발 사례’ 등의 ‘제품 개발’ 분야와, 서비스 아이디어 제안과 같은 ‘아이디어’ 분야 등, 총 2개 분야로 진행된다. 공모 범위는 문화데이터를 활용한 온라인(Web) 및 이동통신(App) 서비스뿐만 아니라 오프라인 서비스까지 포함한 모든 서비스이며, 문화데이터와 연계한 타 정보 융·복합 서비스도 공모할 수 있다. 


누구나 문화포털 경진대회사이트(www.culture.go.kr/contest)를 통해 참여 가능 


문체부는 청년위, (사)앱센터, 벤처스퀘어, 아이비케이(IBK)기업은행, 동아일보 청년드림센터 등과 함께, 이 경진대회의 우수한 수상작이 실제 창업으로 이어질 수 있도록 창업 컨설팅, 사업 컨설팅, 전문가 멘토링 등, 다양한 맞춤형 지원 프로그램을 제공할 계획이다. 


창의적 아이디어나 아이템을 보유하고 있으면 누구나 7월 30일부터 10월 31일까지 경진대회 사이트(www.culture.go.kr/contest)를 통해 공모전에 참여할 수 있으며, 분야별(제품 개발, 아이디어) 대상 수상자에게는 각각 문화체육관광부장관상이 수여될 예정이다. 


경진대회 사이트에서는 각 기관이 보유하고 있는 핵심콘텐츠와 함께, 사용자가 서비스를 개발할 수 있도록 공개된 프로그램(Open API) 등을 개방해 응모자가 쉽게 활용할 수 있도록 정보를 제공하고 있다. 


공모전에 대한 더욱 자세한 사항은 경진대회 사이트(www.culture.go.kr/contest)에서 확인하거나 또는 경진대회 사무국(02-3153-2878, 02-3153-2837)에 문의하면 알 수 있다.


출처: 문체부, ‘제2회 정부 3.0 문화데이터 활용 경진대회’ 개최



바로 : 문체부는 자신이 가지고 있는 문화포털에 축적된 인문데이터를 활용할 방안을 모색하고 있다. 그런데 문화포털은 상대도 되지 않는 진정한 한국 인문학 데이터의 총본산은 따로 있다. 바로 한국연구재단에 축적된 인문데이터이다. 한국연구재단의 인문데이터가 공개되고 분석된다면 어떤 파급력이 있을까?! 


이를 위해서는 현재 "아름답지 않은 인문데이터"을 아름답게 만들어주는 방안이 모색되어야 하며, 그와 동시에 현재 축적된 데이터를 가공하고 해석하는 방안도 모색이 되어야 할 것이다. 그리고 그 파급효과는 상당히 클 것으로 믿어 의심하지 않는다. "인문빅데이터 분석" 캬아~ 두근두근 거린다.




라마야나 원문-번역문-음성 통합 뷰어(The Mewar Ramayana) 홈페이지

라마야나 원문-번역문-음성 통합 뷰어(The Mewar Ramayana) 실제 사용 페이지


본 프로젝트는 영국 국립 도서관(BRITISH LIBRARY)에 의해 진행된 고대인도의 2대 서사시로 뽑히는 라마야나의 디지털화에 대한 연구이다. 본 프로젝트는 라마야나의 원문이미지와 번역문건 및 음성파일을 서로 연결하여 시각화를 시도하고 있다. 원문이미지와 번역텍스트 및 음성파일을 같이 보여주는 개념은 사실 한국에서도 이미 훌륭한 사례가 많이 있다. 오히려 원문이미지와 번역텍스트 UI나 텍스트에 대한 기계가독성 처리 부분은 한국보다 뒤떨어지는 부분도 상당히 눈에 띄인다.


다만 본 프로젝트에서 배워야될 점은 웹 표준인 HTML5을 적용하였다는 점이다. 그 덕분에 익스플로우(IE)는 물론이고, 크롬이나 파이어폭스를 비롯한 다양한 웹브라우져에서 사용이 가능하다. 한국의 엑티브엑스나 기타 온갖 잡다 스크립트를 이용한 소위 "원문뷰어"에 괴로워 한 경험이 있는 사람이라면 웹 표준 준수가 왜 중요한지 충분히 알 것이라고 생각한다. 

네이버-문화융성위원회-문화재청, 문화 가치 확산 위한 업무 협약 체결

서울--(뉴스와이어) 2014년 07월 29일 -- 네이버㈜(대표 이사 사장 김상헌)는 문화융성위원회(위원장 김동호), 문화재청(청장 나선화)와 문화 가치 확산과 우리 문화유산의 보전 활성화를 위한 업무 협약을 체결했다고 밝혔다. 


이번 업무 협약을 통해, 문화융성위원회와 문화재청이 10월 이전까지 구축할 예정인 아리랑 무형문화유산 DB가 네이버에서 유통되어, 누구나 손쉽게 인터넷을 통해 해당 정보를 찾아볼 수 있게 된다. 


또한, 문화재청 및 관련 기관이 보유한 국가문화유산포털(www.heritage.go.kr)의 정보 역시 네이버를 통해 대중에게 공개될 예정이다. 


이외에도 네이버 측은 문화융성위원회가 추진하는 ‘문화가 있는 날’ 정책을 홍보하고, 네이버 지식백과와 네이버캐스트 등의 서비스를 활용해 아리랑 및 문화유산 정보를 널리 알리는 데 앞장설 예정이다. 


문화융성위원회 김동호 위원장은 “문화를 통해 삶의 가치를 높이는 ‘문화융성’의 시대를 열어감에 있어서는 다양한 기관 간의 협업은 필수”임을 강조하며, “특히 이번 업무협약을 통해 아리랑을 비롯한 한국의 자랑스러운 문화유산이 살아있는 문화 콘텐츠로 재창조되고, 국민 누구나 다양한 문화 콘텐츠를 보다 쉽게 접하고 누릴 수 있는 계기가 되기를 기대한다.”고 밝혔다. 


문화재청 나선화 청장은 “문화재청이 그간 축적해온 수많은 문화유산 정보가 네이버의 경험과 결합되어 국민 눈높이에 맞는 콘텐츠로 거듭남으로써 현재 및 미래세대의 국민행복이 실현되는 데 기여할 것으로 기대한다.”고 밝혔다. 


네이버 김상헌 대표는, “네이버는 문화유산의 아름다움을 오롯이 전달할 수 있도록 많은 지원과 노력을 아끼지 않을 것”이라며, “그로 인해 선조들이 남긴 문화유산의 가치와 그 안에 담긴 정신이 후세들에게 더욱 가깝고 친근하게 다가갈 수 있기를 기원한다”고 밝혔다.


출처 : 네이버-문화융성위원회-문화재청, 문화 가치 확산 위한 업무 협약 체결



바로 : [디지털인문학/DH_News] - 다음 검색과 한국학중앙연구원 한국민족문화대백과사전의 만남 가 네이버의 인문데이터 확보뉴스였다면 이번에는 네이버의 인문데이터 확보 뉴스이다. 


아무리 생각해도......인문학자의 역할을 제대로 된 "DB"을 만들어주면 된다. 그럼 인문학 자신의 발전에도 도움이 되며, 산업화는 산업계에서 좋아라하면서 가져다 쓰게 된다. 인문학자의 역할을 잊지 말자. 인문학은 어디까지나 기본을 튼튼하게 하면 된다. 





버클리 인물연구 서비스(Berkeley Prosopography Services, BPS)는 인문학 데이터 속의 인물에 대해서 코퍼스분석(TEI)과 네트워크 분석 및 시각화를 지원하는 서비스이다. 2014년 미국 인문학재단(NEH)의 "디지털인문학 실행 기금(Digital Implementation Grants )"까지 받으며 온라인 디지털인문학 분석툴의 모범으로 뽑히고 있다.


버클리 인물연구 서비스(Berkeley Prosopography Services, BPS) 홈페이지

버클리 인물연구 서비스(Berkeley Prosopography Services, BPS) WIKI



사실 오프라인을 통해서는 코퍼스나 네트워크 분석을 지원하는 다양한 프로그램들이 존재한다. 그러나 웹 기반으로 코퍼스나 네트워크 분석을 지원하는 서비스는 인문학 영역뿐만이 아니라, 그 외의 영역에서도 다양한 이유로 그다지 많지 않다.


한국도 한국연구재단이나 한국학진흥사업단의 인문학 프로젝트로 축적된 데이터가 존재한다. 문제는 대부분의 인문학자들은 다른 데이터를 돌아볼 여유도 없고, 분석을 실행할 여유는 더더욱 없는 것이 문제이다. 그렇다면 축적된 인문학 데이터를 바탕으로 위와 같은 간단한 분석툴만 제공해도 상당한 효과가 발생하지 않을까 생각해본다.


한국학중앙연구원과 다음 커뮤니케이션은 검색 콘텐츠 제휴 업무 협약(MOU)을 체결하였다. 이번 협약을 통해서 다음은 한국민족문화대백과사전에 수록된 표제어 6만 8000여건에 대한 백과 데이터베이스을 확보하여 PC와 모바일 다음 통합 검색 결과에 적용하게 된다. 


한국민족문화대백과사전은 국가의 지원을 받아 구축된 한국인의 역사, 종교, 정치, 생활, 문화, 과학 전반의 기록을 집대성한 백과사전이다. 이미 다양한 방식의 OpenAPI을 제공하고 있지만, 다음과의 MOU을 통하여 수용자들이 자주 사용하는 검색 시스템에 적용됨으로서 수용자들이 보다 더 편안하게 국가지식정보자원에 접근할 수 있게 되었다. 


이것이 정부 3.0이고, 인문지식의 대중화이다.  인문학자가 직접 온갖 삽질을 하면서 대중화에 신경쓸 필요는 없다. 인문학자는 오직 현재의 디지털기술에 적합한 방식으로 데이터베이스를 축적하면 된다. 그것을 대중화하고 산업화하는 것은 그쪽 영역의 문제이다. 현재의 문제는 엉터리 인문학 데이터베이스가 많다는 것일 뿐이다.




세계 디지털인문학(Digital humanities) 대회가 7월 8일~14일의 일정을 종료하였다. (홈페이지 : http://dh2014.org/ ) 물론 가서 세계 디지털인문학 동향을 듣고 싶었으나, 돈도 시간도...무엇보다 영어능력의 부재로 가지 못했다. 본인과 같은 사람들을 위하여 2014 세계 디지털인문학 대회 관련 정보를 간략하게 모아보았다.


디지털인문학 2014 홈페이지 : http://dh2014.org/

디지털인문학 2015 홈페이지 : http://dh2015.org/


The Spatial in Digital Humanities

TALK AT DIGITAL HUMANITIES 2014

S1E7: Humanities Savior Narrative

The British Library at Digital Humanities 2014



--- 또 다른 관련 글을 아시는 분은 제보 부탁드립니다. ---



언젠가 한국에서도 세계 디지털인문학 대회가 열릴 날이 올거다...암암...-0-!



세미나 블로그


세미나의 비디오 녹화 (MP4)

세미나의 오디오 녹음 (MP3)

프리젠 테이션 (PDF)



바로 : 저자는 유로피아나, 위키피디아, 유튜브, 피카사, PELAGIOS 등의 다양한 디지털 데이터를 서로 연결하여 EAGLE이라고 하는 고대 그리스어와 라틴어 비문들의 정보를 연결하는 시스템을 제안하고 있다. 문헌정보, 지리정보, 번역정보, 저자정보, 멀티미디어정보 등을 통합하여 고대 그리스어와 라틴어 비문에 대한 정보를 통괄한다면 그것보다 관련 연구자나 산업계에 도움이 되는 것이 있을까? 괜히 산업화를 이야기할 필요도 이유도 없다. 인문학자의 일은 데이터를 제공하는 것이지 데이터로 돈을 버는 것이 아니다.


또 다른 면에서 이런 세미나 자료를 동영상, 음성, PDF로 모두 공개한다는 것이 너무나 부럽다. 본인도 최선을 다해서 관련 내용을 블로그에 올리려고 하지만......아직도 다양한 이유로 공개하지 못하는 자료가 쌓여있는데 말이다. 다음부터 세미나때의 동영상촬영을 건의해볼까나...근데 편집해야되서...귀찮....쿨럭...


I am a huge fan of Ben Marwick. He has so many useful pieces of code for the programming archaeologist or historian!

Edit July 17 1.20 pm: Mea culpa: I originally titled this post, ‘Doing OCR within R’. But, what I’m describing below – that’s not OCR. That’s extracting text from pdfs. It’s very fast and efficient, but it’s not OCR. So, brain fart. But I leave the remainder of the post as it was. For command line OCR (really, actual OCR) on a Mac, see the link to Ben Schmidt’s piece at the bottom. Sorry.

Edit July 17 10 pm: I am now an even bigger fan of Ben’s. He’s updated his script to either a) perform OCR by calling Tesseract from within R or b) grab the text layer from a pdf image. So this post no longer misleads. Thank you Ben!

Object Character Recognition, or OCR, is something that most historians will need to use at some point when working with digital documents. That is, you will often encounter pdf files of texts that you wish to work with in more detail (digitized newspapers, for instance). Often, there is a layer within the pdf image containing the text already: if you can highlight text by clicking and dragging over the image, you can copy and paste the text from the image. But this is often not the case, or worse, you have tens or hundreds or even thousands of documents to examine. There is commercial software that can do this for you, but it can be quite expensive

One way of doing OCR on your own machine with free tools, is to use Ben Marwick’s pdf-2-text-or-csv.r script for the R programming language. Marwick’s script uses R as wrapper for the Xpdf programme from Foolabs. Xpdf is a pdf viewer, much like Adobe Acrobat. Using Xpdf on its own can be quite tricky, so Marwick’s script will feed your pdf files to Xpdf, and have Xpdf perform the text extraction. For OCR, the script acts as a wrapper for Tesseract, which is not an easy piece of software to work with. There’s a final part to Marwick’s script that will pre-process the resulting text files for various kinds of text analysis, but you can ignore that part for now.

  1. Make sure you have R downloaded and installed on your machine (available from http://www.r-project.org/)
  2. Make sure you have Xpdf downloaded and installed (available from ftp://ftp.foolabs.com/pub/xpdf/xpdfbin-win-3.04.zip ). Make a note of where you unzipped it. In particular, you are looking for the location of the file ‘pdftotext.exe’. Also, make sure you know where ‘pdftoppm’ is located too (it’s in that download).
  3. Download and install Tesseract https://code.google.com/p/tesseract-ocr/ 
  4. Download and install Imagemagick http://www.imagemagick.org/
  5. Have a folder with the pdfs you wish to extract text from.
  6. Open R, and paste Marwick’s script into the script editor window.
  7. Make sure you adjust the path for “dest” and the path to “pdftotext.exe” to the correct location
  8. Run the script! But read the script carefully and make sure you run the bits you need. Ben has commented out the code very well, so it should be fairly straightforward.

Obviously, the above is framed for Windows users. For Mac users, the steps are all the same, except that you use the version of Xpdf, Tesseract, and Imagemagick built for IOS, and your paths to the other software are going to be different. And of course you’re using R for Mac, which means the ‘shell’ commands have to be swapped to ‘system’! (As of July 2014, the Xpdf file for Mac that you want is at ftp://ftp.foolabs.com/pub/xpdf/xpdfbin-mac-3.04.tar.gz ) I’m not 100% certain of any other Mac/PC differences in the R script – these should only exist at those points where R is calling on other resources (rather than on R packages). Caveat lector, eh?

The full R script may be found athttps://gist.github.com/benmarwick/11333467. So here is the section that does the text extraction from pdf images (ie, you can copy and highlight text in the pdf):

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
###Note: there's some preprocessing that I (sg) haven't shown here: go see the original gist
 
################# Wait! ####################################
# Before proceeding, make sure you have a copy of pdf2text
# on your computer! Details: https://en.wikipedia.org/wiki/Pdftotext
 
# Tell R what folder contains your 1000s of PDFs
dest <- "G:/somehere/with/many/PDFs"
 
# make a vector of PDF file names
myfiles <- list.files(path = dest, pattern = "pdf",  full.names = TRUE)
 
# now there are a few options...
 
############### PDF to TXT #################################
# convert each PDF file that is named in the vector into a text file
# text file is created in the same directory as the PDFs
# note that my pdftotext.exe is in a different location to yours
lapply(myfiles, function(i) system(paste('"C:/Program Files/xpdf/bin64/pdftotext.exe"', paste0('"', i, '"')), wait = FALSE) )
 
# where are the txt files you just made?
dest # in this folder

And here’s the bit that does the OCR

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
</pre>
                     ##### Wait! #####
# Before proceeding, make sure you have a copy of Tesseract
# on your computer! Details & download:
# and a copy of ImageMagick: http://www.imagemagick.org/
# and a copy of pdftoppm on your computer!
# And then after installing those three, restart to
# ensure R can find them on your path.
# And note that this process can be quite slow...
 
# PDF filenames can't have spaces in them for these operations
# so let's get rid of the spaces in the filenames
 
sapply(myfiles, FUN = function(i){
  file.rename(from = i, to =  paste0(dirname(i), "/", gsub(" ", "", basename(i))))
})
 
# get the PDF file names without spaces
myfiles <- list.files(path = dest, pattern = "pdf",  full.names = TRUE)
 
# Now we can do the OCR to the renamed PDF files. Don't worry
# if you get messages like 'Config Error: No display
# font for...' it's nothing to worry about
 
lapply(myfiles, function(i){
  # convert pdf to ppm (an image format), using
  shell(shQuote(paste0("pdftoppm ", i, " -f 1 -l 10 -r 600 ocrbook")))
  # convert ppm to tif ready for tesseract
  shell(shQuote(paste0("convert *.ppm ", i, ".tif")))
  # convert tif to text file
  shell(shQuote(paste0("tesseract ", i, ".tif ", i, " -l eng")))
  # delete tif file
  file.remove(paste0(i, ".tif" ))
  })
 
# where are the txt files you just made?
dest # in this folder

Besides showing how to do your own OCR, Marwick’s script shows some of the power of R for doing more than statistics. Mac users might be interested in Ben Schmidt’s tutorial ‘Command-line OCR on a Mac’ from his digital history graduate seminar at Northeastern University, online athttp://benschmidt.org/dighist13/?page_id=129.


출처 : Extracting Text from PDFs; Doing OCR; all within R


바로 : 요즘은 PDF에서 곧장 텍스트를 추출할 수 있다. 그러나 다양한 이유로 텍스트 추출이 어려운 경우가 있다. 물론 이를 지원하는 수 많은 유료소프트웨어가 있기는 하지만......돈 없는 우리가 불법행위를 하지 않으면서 텍스트를 추출하는 방법은 무엇인가?! 저자는 무료툴인 R을 통해서 텍스트를 추출하는 방법에 대해서 서술하고 있다. 


출처 : Collaborative Academic Writing: Tools and Features


공동 학술 도구 설명 관련 포스트

Collaborative Academic Writing: Tools and Features

The right tool for the job: Five collaborative writing tools for academics



공동 학술 도구 

Confluence – www.confluence.atlassian.com 

Dropbox – www.dropbox.com

Etherpad – www.etherpad.org

Fidus Writer – www.fiduswriter.org

Git / GitHub – www.github.com 

Google Drive – www.drive.google.com

Libre Office – www.libreoffice.org 

Mediawiki – www.mediawiki.org

ownCloud – www.owncloud.org

Penflip – www.penflip.com

ZOHO Docs / Writer – www.writer.zoho.com



바로 : 개인적으로 기본적인 공동집필의 경우 구글드라이브를 통해서 사실상 거의 모든 일을 처리할 수 있다. 결국 기존 세력?!의 압박으로 파일관리시스템을 유지해야된다면 구글드라이브보다 드롭박스가 더 좋을 수도 있을 것이다. 만약 외부로 공개 가능한 자료라면 위키도 좋은 툴이다.


사실 툴이 중요한 것이 아니라, 툴을 대하는 마인드가 중요하다. "몰라. 어려울거야. 그냥 지금까지 하던대로 하자."보다는 "오?! 이걸 하면 뭐가 편해지는데?!"라고 해야되지 않을까?! 원고지에다가 논문을 쓰는 것보다 워드나 한글에서 쓰는 것이 몇 백배나 편하지 않은가?! 공동 학술 도구도 이와 동일하다.






안녕하세요. 역사학회 사무국입니다.

2014년 하반기 역사학회 학술대회를 안내해드립니다.


일시: 2014년 8월 22일 금요일 오후 1시 ~ 6시

장소: 서울역 앞 대우재단 빌딩 7층 세미나 1실

주제: 역사학과 ICT의 융합 모색 -한국 역사학의 미래 탐색-

    

일정:

13:00 ~ 13:10 - 개화사 (역사학회 회장)

      

제 1부 (13:10~14:40)

 

주제 1 - 역사연구와  디지털 결합 실제 사례

세부 주제 : < Case Study: 역사학·ICT의 융합교육과정 현황과 문제점 >

발표자 : 임승휘 (선문대학교)

 

주제 2 - GIS 활용 역사 연구 방법론 

세부 주제 : < GIS 기법의 활용을 통한 조선시대 월경지의 복원 >

발표자 : 정요근 (덕성여자대학교)

 

주제 3 - ICT와 역사 콘텐츠

세부 주제 : < ICT를 활용한 역사콘텐츠의 기획과 개발 >

발표자 : 최희수 (상명대학교)

 

 

제 2부 (14:50~16:40)


주제 4 - Visualization

세부 주제 : < 시각적 인문학 >

발표자 : 김  현 (한국학중앙연구원)

 

주제 5 - 문화콘텐츠 차원의 역사학

세부 주제 : < 문화콘텐츠의 핵심원천으로서의 역사학 >

발표자 : 김기덕 (건국대학교)

 

주제 6 - 인문학에 대한 ICT 전문가의 제언

세부 주제 : < 디지털 시대의 기록하는 역사와 '잊혀질 권리' >

발표자 : 정혜승 (Daum 커뮤니케이션 정책 실장)


제 3부 (16:50~18:00)

종합토론

토론자 : 문종현 (한양대학교) /  김종혁 (고려대학교) / 홍성덕 (전주대학교)

            유동환 (건국대학교) /  김   호 (경인교육대학교)


18:10 ~ 20:00 - 만 찬

 

* 더욱 자세한 일정 및 내용은 첨부된 안내문을 참고하십시오.  


2014년 역사학회 학술대회 안내.hwp



출처 : 역사학회 2014년 하반기 역사학회 학술대회 안내


바로 : 역사학도였던 입장에서 역사학의 디지털인문학 모색에 대해서 환영한다. 역사학자의 능력이 자료수집이 아니라 자료해석이라는 점에 동의한다면 자료수집이 반자동적으로 이루어지는 디지털인문학에 동의하지 않을 수 없다. 또한 학자의 의무 중에 하나인 성과의 사회반환에 대해서 고민한다면 디지털인문학만이 현재의 가장 합리적인 답안이라는 것을 말해 무엇하리오. 


귀찮다고? 무섭다고? 내가 할일이 아니라고? 핑계다. 워드나 한글을 하지 못해서 원고지에 논문을 쓰겠다는 것과 무엇이 다른가?! 이제 새로운 역사학 연구 방법론의 세계로 가보자.



2014년도 과학전시전문가과정 수강생모집(제4회) 과학문화 대중화 및 과학기술 마인드 확산을 통한 과학기술 중심사회를 실현하고, 과학관 확충과 운영활성화에 대비하여 과학전시를 담당할 현장 전문인력을 양성하고자 국립중앙과학관과 KAIST문화기술대학원에서 ‘2014 과학전시 전문인력 양성사업 전문가과정’을 개설하고 수강생을 모집합니다.


‘2014 과학전시 전문인력양성 전문가과정’은, 특화된 “과학전시 기획 및 창의체험 과학전시 컨텐츠개발” 을 중심으로 단기집중 교육합니다. “과학전시와 과학문화”를 중심으로 한 공개강좌와 “과학전시기획” “과학컨텐츠 기획 및 개발”, “뉴미디어의 활용전시”, 등을 중심으로 한 세미나와 현장 인턴실습 프로젝트교육을 통해 전시실무 개발경험을 축적시키고 새로운 전시기술을 교육하여 과학전시전문인력을 양성합니다.



추가 정보는 다음 파일을 참고해주시기 바랍니다. 참고로 "무료"입니다!!!


#01. 과학전시2014 안내NEW.pdf


#02. 과학전시2014 신청서.hwp





바로 : 저는 시간관계상 참가하기가 힘들듯 하더군요. ㅠㅠ 다만 너무 빡빡한 일정이 아닌가라는 생각이 좀 많이 드는군요. 교육일정표의 하나 하나의 강좌가 쉽지 않은 내용인데 실제 강의시간은 1시간 정도니까...죽음의 행진이 될 가능성이 높군요^^:::



바로 : 의료의 영역에서는 수 많은 빅데이터 처리 문제가 의료의 효율성과 직결되고 있다. 그렇기에 다양한 의료 데이터에 대한 분석방법론이 제기되고 있다. 다만 현재 의료 데이터의 문제는 분석방법보다는 데이터 허깅이라고 불리는 데이터를 서로 공유하지 않는 현실상황이다. 머...이것도 인문학 데이터에 비하면 양호하긴 하다.



 「저작권법」 제24조의2(공공저작물의 자유이용) 시행(‘14.7.1.)에 따라 공공저작물의 자유이용이 가능하게 되었습니다. 이에 따라 한국향토문화전자대전을 비롯한 우리 연구원의 다양한 연구결과물에 대한 효율적인 저작권 관리 방안을 모색하고자 다음과 같이 콜로키엄을 개최하오니 관심 있는 분들의 많은 참석을 부탁드립니다.


* 주제: 공공저작물 자유이용에 따른 저작권의 효율적 관리 방안


* 발표: 고길준(UN / CEFACT(유엔 산하 무역촉진 및 전자거래 표준제정 국제기구) Tourism & Leisure DTI 의장(WWW.UNCEFACT.ORG), 미림미디어랩(주) 이사


* 일시: 2014. 7. 24. (목) 10시~12시


* 장소: 국은관 1층 회의실


* 문의: 문화콘텐츠편찬실 이윤성(내선 653)


출처 : 한국학중앙연구원 공지사항



바로: 향토문화전자대전은 수 많은 사진을 비롯한 멀티미디어 자료를 보유하고 있다. 향문의 멀티미디어 자료는 국가의 기금으로 만들어진 공공의 데이터이다. 만약 이 데이터를 일반에 공개해서 자유롭게 사용할 수 있다면 어떤 결과가 있을까? 당장 생각나는 것만해도, 국내에서는 다양한 기본 인문학 출판물에서 자유롭게 정확한 멀티미디어 자료를 사용할 수 있을 것이며, 해외의 한국학 관련 출판사들은 저작권 문제로 인한 자금 압박에서 벗어나서 보다 많은 한국학 출판물들을 내보낼 수 있게 된다. 


이것이 정부 3.0이며! 이것이 인문학의 산업화이다. 산업화는 산업계에서 고민할 문제다. 인문학자는 산업화할 자료만 충분히 효율적인 방식으로 제공하면 되는 것이다. 디지털인문학을 전공하는 본인의 입에서 나오는 소리라서 의아해 하실 분도 있겠지만, 디지털인문학의 최종목표는 어디까지나 인문학 연구이다. 산업화는 그 과정에서 나오는 부산물에 불과하다. (그렇다. 본인은 인문학 지상주의자이다. )





뉴욕대학교(NYU) 인문학 지원계획(humanities initiative)은 "교실과 연구실에서 디지털툴 사용하기"의 주제로 포럼을 열어서 자신의 경험을 공유하는 마당을 만들었다. 디지털인문학에 대한 미국 실무 경험자의 목소리가 궁금하다면 한번 보시길 바란다.


Using Digital Tools in the Classroom and in Research

https://www.youtube.com/playlist?list=PLJLxrhlmsS3HH92vHBD2UVtKlGZrFwgPz


본인이 더 주목한 부분은 뉴욕대학교와 같이 자신의 경험을 유튜브를 통해서 나누는 방식이다. 솔직히 생각보다 어려우면서 생각보다 쉬운 일이다. 본인의 학교에서 과거 "E강의"을 위해서 도입했지만, 어디 구석이 있는지 모르는 장비들을 사용한다면 충분히 구현 가능한 일이다. 문제는 한국에서는......현시점에서...... "우리 동네의 미친놈이 나야"를 제대로 할 수 있을까? (무슨 말인지 이해하실 분들은 이해하시리라 본다) 


Tableau는 프로그래밍 과정 없이 자신의 데이터를 다양한 방식으로 시각화 할 수 있는 툴이다. 시각화 툴이기에 말이 필요 없다. 직접 홈페이지에 들어가보시고, 하단의 동영상을 한번만 보셔도 모든 것을 이해하실 수 있으리라 생각한다. 해당 프로그램은 14일의 무료체험판을 접해보실 수 있으며, 구매는 직접 홈페이지를 참고해주시기 바란다.


Tableau 홈페이지 바로가기

http://www.tableausoftware.com/ko-kr



Tableau의 존재는 디지털인문학에  인문학자들의 토대데이터 구축에 대해서 강력하게 말해주고 있다. 데이터만 잘 만들면 시각화는 날로 먹을 수 있다. 


어떠한 훌륭한 시각화툴이더라도 기본적인 데이터품질이 엉터리면 어떠한 분석도 불가능하다. 대놓고 말해서 엉터리 데이터베이스(표가 있는 한글문서, 온갖 행열 병합을 해놓은 엑셀 문서)가 판을 치는 현재의 인문학 데이터베이스을 어떻게 구축할 것인가가 문제다. 




+ Recent posts