바로가기메뉴

본문 바로가기 주메뉴 바로가기

logo

검색어: research data, 검색결과: 15
1
김성훈(성균관대학교 문헌정보학과) ; 오삼균(성균관대학교 문헌정보학과) 2018, Vol.35, No.2, pp.141-165 https://doi.org/10.3743/KOSIM.2018.35.2.141
초록보기
초록

본 연구의 목적은 연구데이터 관리서비스 구현 시 성공적인 서비스를 위한 고려사항을 도출하는 것이다. 이를 위해 선행연구를 활용하여 연구데이터 관리서비스의 영역을 파악하였고, 미국, 독일, 호주에서 연구데이터 관리서비스를 시행중인 대학도서관 6곳과 1개의 기관에서 담당자 8명을 대상으로 연구데이터 서비스에 관한 질문의 답변을 이메일을 통해 수집하였다. 또 해외서비스를 대상으로 수집한 고려사항이 국내에 적용가능한지 국내 연구데이터 관리서비스 전문가와 검토하였다. 연구데이터 서비스 영역은 총 9개의 카테고리로 구분하여 분석하였는데, 연구서비스와 연구데이터 관리서비스 연계, 국가/대학/기관 차원의 협약, 메타데이터 입력주체 및 필수 요소, 직원의 전문화 방안, 이용자 요구분석을 통한 주요서비스 영역 선정, 연구데이터와 연구결과물의 효과적인 연결방안, 이용자와 유관기관과 긴밀한 공조 등의 연구데이터 관리서비스 구축 시 고려사항을 도출할 수 있었다.

Abstract

The purpose of this study is to determine crucial factors of consideration in ensuring the successful implementation of research data management services. The study begins by extracting a range of service areas from their equivalent in existing research on data management services. It then collects relevant information via e-mail survey from eight individuals respectively overseeing research data management services at six university libraries and one institution located throughout the United States, Germany, and Australia. Having originated in overseas cases, the resulting factors of consideration were reviewed by domestic experts in research data management services. The finalized areas of research data management services consist of nine categories. The crucial factors of consideration in RDM services are connection between research services and research data management services; national/university-level/institutional agreements; metadata entry personnel and required elements; strategies for the provision of specialized staff; major service area selection through user demand analysis; effective linkage between research data and research results; and close cooperation with users and related organizations.

초록보기
초록

본 연구에서는 북미에서 연구데이터 관리 서비스를 제공하는 121개 대학도서관 중 연구데이터 관리 교육 프로그램을 제공하는 51개 기관을 대상으로 제공되는 교육 프로그램의 내용을 12개 데이터 리터러시 세부 역량에 기반을 두어 분석하고 시사점을 제시하는 것을 목적으로 하였다. 내용 분석을 위해 집합 교육 프로그램의 제목 317개와 온라인 튜토리얼의 상위 목차 제목 42개를 수집하였으며 선행연구에서 제시된 12개 데이터 리터러시 세부 역량에 따라 코딩을 수행하였다. 집합 교육 프로그램 중에서는 데이터 처리 및 분석 역량에 대한 교육 프로그램이 가장 많은 것으로 나타났으며, 가장 많은 수의 기관에서 데이터 관리 및 조직 역량에 대한 교육을 제공하고 있었다. 데이터 시각화 및 표현은 집합 교육 프로그램 중에서 세 번째로 많이 다루어지는 역량이었다. 그러나 나머지 9개 역량에 대한 교육 프로그램은 매우 적은 것으로 나타나 교육 프로그램 내용이 특정 역량에 집중되어 있음을 알 수 있다. 집합 교육 없이 자체 개발한 온라인 튜토리얼을 제공하는 기관은 5곳이었으며 목차 제목을 분석한 결과 데이터 보존, 윤리 및 데이터 인용, 데이터 관리 및 조직 역량에 대한 교육 내용을 중점적으로 다루고 있어 집합 교육 프로그램에서 강조되는 역량과 차이를 보였다. 효과적인 연구데이터 관리 교육 프로그램 운영을 위해서는 대학도서관 사서들이 전통적으로 교육하고 강조해왔던 역량뿐만 아니라 데이터 처리와 분석, 데이터 시각화와 표현 등 연구자들의 연구 결과 도출에 필요한 데이터 리터러시 세부 역량에 대한 이해와 지원이 요청된다. 또한 연구데이터 관리 서비스와 관련된 사서들의 계속 교육을 지원하는 교육 자원의 개발도 필요할 것이다.

Abstract

This study aimed to analyze the content of Records Data Management (RDM) training programs provided by 51 out of 121 university libraries in North America that implemented RDM services, and to provide implications from the results. For the content analysis, 317 titles of classroom training programs and 42 headings at the highest level from the tables of content of online tutorials were collected and coded based on 12 data literacy competencies identified from previous studies. Among classroom training programs, those regarding data processing and analysis competency were offered the most. The highest number of the libraries provided classroom training programs in relation to data management and organization competency. The third most classroom training programs dealt with data visualization and representation competency. However, each of the remaining 9 competencies was covered by only a few classroom training programs, and this implied that classroom training programs focused on the particular data literacy competencies. There were five university libraries that developed and provided their own online tutorials. The analysis of the headings showed that the competencies of data preservation, ethics and data citation, and data management and organization were mainly covered and the difference existed in the competencies stressed by the classroom training programs. For effective RDM training program, it is necessary to understand and support the education of data literacy competencies that researchers need to draw research results, in addition to competencies that university librarians traditionally have taught and emphasized. It is also needed to develop educational resources that support continuing education for the librarians involved in RDM services.

초록보기
초록

본 연구의 목적은 문헌정보학 중심의 인문학 기반 데이터 리터러시 개념과 세부 역량을 제안하는 것이다. 이를 위해 국내외 데이터, 정보, 디지털 리터러시 등의 관련 연구를 비교․분석하여 데이터 리터러시의 개념을 정의하고, 인문학 관련 개념으로 디지털 인문학 주요 개념을 연계하여 11개 항목의 인문학 기반 데이터 리터러시의 기본 요소를 설계하였다. 본 연구결과는 향후 데이터 리터러시 프레임워크 설계의 기초자료로 이용할 수 있을 것으로 기대된다.

Abstract

The purpose of this study is to suggest the concept of data literacy and its detailed competencies based on humanities focused on LIS. To do this, we define the concept of data literacy by comparing and analyzing researches related data literacy, data information literacy, and digital literacy in domestic and foreign. And we design the basic 11 elements of data literacy based on digital humanities concepts. The result of this study is expected to be used as a basic data when design henceforward data literacy framework.

4
정도헌(덕성여자대학교) ; 주황수(덕성여자대학교) 2018, Vol.35, No.3, pp.77-100 https://doi.org/10.3743/KOSIM.2018.35.3.077
초록보기
초록

본 연구는 텍스트 마이닝 기법을 활용하여 대량의 데이터로부터 학제 간 융합 기술을 발굴하는 일련의 과정을 제시하는 것을 목표로 한다. 바이오공학 기술(BT) 분야와 정보통신 기술(ICT) 분야 간의 융합 연구를 위해 (1) BT 분야의 기술용어 목록을 작성하여 대량의 학술논문 메타데이터를 수집한 후 (2) 패스파인더 네트워크 척도 알고리즘을 이용해 유망 기술의 지식 구조를 생성하고 (3) 토픽 모델링 기법을 사용하여 BT분야 중심의 내용 분석을 수행하였다. 다음 단계인 BT-ICT 융합 기술 아이템 도출을 위해, (4) BT-ICT 관련 정보를 얻기 위해 BT 기술용어 목록을 상위 개념으로 확장한 후 (5) OpenAPI 서비스를 이용하여 두 분야가 관련된 학술 정보의 메타데이터를 자동 수집하여 (6) BT-ICT 토픽 모델의 내용 분석을 실시하였다. 연구를 통해 첫째, 융합 기술의 발굴을 위해서는 기술 용어 목록의 작성이 중요한 지식 베이스가 된다는 점과 둘째, 대량의 수집 문헌을 분석하기 위해서는 데이터의 차원을 줄여 분석을 용이하게 해주는 텍스트 마이닝 기법이 필요하다는 점을 확인하였다. 본 연구에서 제안한 데이터 처리 및 분석 과정이 학제 간 융합 연구의 가능성이 있는 기술 요소들을 발굴하는 데 효과적이었음을 확인할 수 있었다.

Abstract

The objectives of this study is to present a discovering process of interdisciplinary convergence technology using text mining of big data. For the convergence research of biotechnology(BT) and information communications technology (ICT), the following processes were performed. (1) Collecting sufficient meta data of research articles based on BT terminology list. (2) Generating intellectual structure of emerging technologies by using a Pathfinder network scaling algorithm. (3) Analyzing contents with topic modeling. Next three steps were also used to derive items of BT-ICT convergence technology. (4) Expanding BT terminology list into superior concepts of technology to obtain ICT-related information from BT. (5) Automatically collecting meta data of research articles of two fields by using OpenAPI service. (6) Analyzing contents of BT-ICT topic models. Our study proclaims the following findings. Firstly, terminology list can be an important knowledge base for discovering convergence technologies. Secondly, the analysis of a large quantity of literature requires text mining that facilitates the analysis by reducing the dimension of the data. The methodology we suggest here to process and analyze data is efficient to discover technologies with high possibility of interdisciplinary convergence.

초록보기
초록

빅 데이터 시대에 접어들면서 저장 기술과 처리 기술이 급속도로 발전함에 따라, 과거에는 간과되었던 롱테일(long tail) 데이터가 많은 기업과 연구자들에게 관심의 대상이 되고 있다. 본 연구는 롱테일 법칙의 영역에 존재하는 데이터의 활용률을 높이기 위해 텍스트 마이닝 기반의 기술 용어 네트워크 생성 및 통제 기법을 제안한다. 특히 텍스트 마이닝의 편집 거리(edit distance) 기법을 이용해 학문 분야에서 사용되는 기술 용어의 상호 네트워크를 자동으로 생성하는 효과적인 방안을 제시하였다. 데이터의 활용률 향상 실험을 위한 데이터 수집을 위해 LOD(linked open data) 환경을 이용하였으며, 이 과정에서 효과적으로 LOD 시스템의 데이터를 활용하는 기법과 용어의 패턴 처리 알고리즘을 제안하였다. 마지막으로, 생성된 기술 용어 네트워크의 성능 측정을 통해 제안한 기법이 롱테일 데이터의 활용률 제고에 효과적이었음을 확인하였다.

Abstract

As data management and processing techniques have been developed rapidly in the era of big data, nowadays a lot of business companies and researchers have been interested in long tail data which were ignored in the past. This study proposes methods for generating and controlling a network of technical terms based on text mining technique to enhance data utilization in the distribution of long tail theory. Especially, an edit distance technique of text mining has given us efficient methods to automatically create an interlinking network of technical terms in the scholarly field. We have also used linked open data system to gather experimental data to improve data utilization and proposed effective methods to use data of LOD systems and algorithm to recognize patterns of terms. Finally, the performance evaluation test of the network of technical terms has shown that the proposed methods were useful to enhance the rate of data utilization.

초록보기
초록

본 연구는 최근 열린 정부 데이터에 대한 다차원 척도, 모델 개발 연구가 시작되고 있으나, 도서관에서는 관련 연구가 부족하다는 점을 고려하여 도서관에 적용할 수 있는 오픈 데이터 품질측정 모델개발을 목적으로 하였다. 본 연구는 모델개발과 모델평가 두 단계로 수행하였다. 모델개발은 델파이 기법을 적용하였으며, 모델평가는 도서관 오픈 데이터 이용자를 대상으로 설문조사를 실시하여 모델의 타당도와 신뢰도를 측정하였다. 모델개발은 델파이 기법을 적용하여 총 4차례 수행하여 3개 차원, 18개 요인, 133개 측정요소로 구성된 모델을 도출하였다. 모델평가는 델파이 기법으로 완성한 모델을 도서관 오픈 데이터 이용자인 국내․외 사서, 개발자, 오픈 데이터 활동가를 대상으로 적합성 설문조사를 실시하여 모델의 타당도와 신뢰도를 검증하였다. 그 결과 당초 18개 요인, 133개 측정요소는 15개 요인, 54개 측정요소가 타당성을 확보한 것으로 나타났다. 신뢰도는 차원별, 측정요인별로 모두 기준치인 0.6 이상의 결과를 보여주고 있어 높은 신뢰도를 확보한 것으로 나타났다. 모델평가를 통한 이용자 타당도, 신뢰도 분석으로 전문가가 구성한 평가모델은 현장에서 즉시 활용될 수 있을 정도로 정제되었다.

Abstract

This study draws on the current momentum to diversify open government data research through multidimensional scaling and model development. It formulates a quality assessment model applicable to library open data, taking into consideration the paucity of such research in the field. The model was developed using the Delphi method and verified for validity and reliability on the basis of a survey administered to library open data users. The results of the fourth round exhibited an average of 4.00 for all measured elements and a minimum validity of .75, rendering the model appropriate for use in quality assessments of library open data. The convergence and stability results provided by the expert panel fell below .50, confirming that there was no need to conduct further surveys in order to establish the validity of the Delphi method. The model's reliability likewise garnered results of .60 and above in all three dimensions. This Model completed with the input of the Delphi panel was put through a verification process in which library open data users such as domestic and international librarians, developers, and open data activists reviewed the model for validity and reliability. The model scored low on validity on account of its failure to load all measure factors and elements pertaining to the three dimensions. Reliability results, on the other hand, were at 0.6 and above for all dimensions and measured elements.

초록보기
초록

This study proposes the analysis method in sentence semantics that can be automatically identified and processed as appropriate items in the system according to the composition of the sentences contained in the data corresponding to the logical semantic structure metadata of the research papers. In order to achieve the purpose, the structure of sentences corresponding to ‘Research Objectives’ and ‘Research Outcomes’ among the semantic structure metadata was analyzed based on the number of words, the link word types, the role of many-appeared words in sentences, and the end types of a word. As a result of this study, the number of words in the sentences was 38 in ‘Research Objectives’ and 212 in ‘Research Outcomes’. The link word types in ‘Research Objectives’ were occurred in the order such as Causality, Sequence, Equivalence, In-other-word/Summary relation, and the link word types in ‘Research Outcomes’ were appeared in the order such as Causality, Equivalence, Sequence, In-other-word/Summary relation. Analysis target words like ‘역할(Role)’, ‘요인(Factor)’ and ‘관계(Relation)’ played a similar role in both purpose and result part, but the role of ‘연구(Study)’ was little different. Finally, the verb endings in sentences were appeared many times such as ‘∼고자’, ‘∼였다’ in ‘Research Objectives’, and ‘∼었다’, ‘∼있다’, ‘∼였다’ in ‘Research Outcomes’. This study is significant as a fundamental research that can be utilized to automatically identify and input the metadata element reflecting the common logical semantics of research papers in order to support researchers’ scholarly sensemaking.

Abstract

8
오삼균(성균관대학교 문헌정보학과) ; 한상은(성균관대학교 문헌정보학과) ; 손태익(성균관대학교 학술정보관) ; 김성훈(성균관대학교 문헌정보학과) 2018, Vol.35, No.3, pp.165-187 https://doi.org/10.3743/KOSIM.2018.35.3.165
초록보기
초록

전거데이터 공동구축을 목표로 하는 많은 국내 연구가 시행되었음에도 불구하고 국가전거구축의 협업 환경은 표준 전거의 제정, 표준 전거 구축원칙의 제정, 기존 전거구축 기관의 업무 개편, 공동구축 업무의 핵심기관 선정 등과 같은 전제 조건의 미비로 인해 그 실질적 조성이 막혀 있다. 국가전거를 공동으로 구축하고 원활하게 활용하기 위해서는 기존 전거구축기관의 업무에 지장을 초래하지 않는 현실적 협업 방안과 지속적 추진력을 보유한 국가기관의 참여와 아울러 다수 기관의 데이터 병합을 가능케 하는 표준식별체계가 요구된다. 본 연구의 목적은 국가전거의 공동 구축을 위한 여건 조성에 있어서 필수사항이 무엇인가를 문헌조사로 밝히고, 시맨틱웹 기반으로 구축되어 상호운용성이 우수한 VIVO 온톨로지 모델의 활용을 통해 구현 가능한 국가전거 구축모델을 제시하는 것이다.

Abstract

Despite repeated efforts to develop a methodological foundation for assembling collaborative authority data in South Korea, issues such as the establishment of a standard authority model and standard authority construction as well as the reconfiguration of existing entities in authority building have prevented such research from generating a cooperative push for nation-wide authority data and progressing toward concrete implementation. The formulation of a collaborative and well-utilized collection of national authority data accordingly calls for 1) a practical approach to supporting both established authority data contributors and newly organized avenues of mutual participation in authority building, 2) committed involvement on the part of national institutions capable of providing the project with sustained assistance, and 3) a standard identification system which allows multiple organizations to merge their data. This study addresses the challenges of the current environment by taking stock of the key components necessary for the creation of collaborative authority data and using a Semantic Web-based interoperable VIVO ontology model to propose a viable national authority data framework.

초록보기
초록

Mendeley의 독자 정보는 학계 밖에서 학문의 결과물이 어떻게 소비되고 있는지 다각도로 파악하여 피인용도로는 해석할 수 없었던 미지의 세계를 예측하는데 활용될 수 있다. 본 연구는 Mendeley의 co-readership 데이터를 활용해 한국 관련 논문의 독자 국가 네트워크 분석을 수행하여 공통의 학문적 관심사를 공유하는 국가 군집을 이해하고 이들 국가가 네트워크 상에서 어떠한 영향력을 가지는지 확인하였다. 그 결과 전 분야에서 미국을 비롯한 선진국은 대체로 높은 전역중심성을 보여 한국 관련 연구에 대한 전반적인 협력과 잠재적 교류 가능성을 가지는 것으로 나타났으며, 일부 개발도상국은 높은 지역중심성을 보여 상호간 공통의 학문적 관심사로 연계되어 있는 것으로 확인되었다. 한편 의학과 사회과학 분야는 OECD 국가와 개발도상국이 분리된 독자층을 이루었으며, 공학 분야는 신흥경제개발국이 대규모 독자 군집으로 형성되는 특징을 보였다. 또한 공학은 네트워크 밀도가 상대적으로 높게 나타나 국가간 학문적 교류와 지식의 확산, 협력의 가능성이 높은 것으로 분석되었다.

Abstract

Mendeley readership data could be used to understand how research outcome be spent outside of academia in multi way. So it could be utilized to understand unknown world which citation rate could not explain still now. This study, by conducting a country network analysis using Mendeley’s co readership data about articles of Korea related research, clusters countries that share common academic interest. As a result, the US and other advanced countries in all fields showed high overall and regional centrality, indicating that they have overall cooperation and potential for exchange of Korea related studies. Some developing countries have shown high regional centrality and are linked to common academic interests. In the medical and social sciences, the OECD and developing countries have formed a separate group of readers, and the engineering sector has been characterized by emerging developing countries as a large community of readers. In addition, engineering science field has shown that network density is relatively high, so there might be high possibility of academic exchanges, knowledge dissemination and cooperation among countries.

10
이지연(연세대학교) ; 감미아(연세대학교) 2018, Vol.35, No.1, pp.129-155 https://doi.org/10.3743/KOSIM.2018.35.1.129
초록보기
초록

본 연구는 실증적 데이터의 검토 및 분석을 통해 이용자연구와 실용연구 분야의 특징을 발견하고, 이용자연구와 실용연구 분야의 융합 가능성을 논하고자 수행되었다. 이용자연구의 개척 및 확장 가능성을 살펴보기 위해, 실용연구 분야 중 UX 연구를 선택하여 비교하였고, 이용자연구 영역과 UX 영역의 주제어 및 분야별 중복도를 살펴보았다. 연구를 위해 국내 이용자연구 3,370개 논문과 국내 UX 연구 2,413개 논문, 국외 이용자연구 3,875개 논문과 국외 UX 연구 2,515개 논문을 수집하였고, 단순 출현빈도를 포함한 계량정보학적 분석 방법을 이용하여 네트워크 맵핑 및 순위 선정, 시기별 비교분석을 수행하였다. 분석 결과 국내의 이용자연구와 UX 연구 중복도는 국외보다 낮은 편이었고, 분야 간 협업의 활발성이 중복도와 연관이 있다고 해석할 수 있었다. 시기별 분석을 통해 이용자연구와 UX 연구간 중복되는 키워드가 점차 증가하고 있음을 발견하였기에, 향후 이용자연구와 실용연구 분야 간의 융합이 활발히 일어날 가능성을 엿볼 수 있었다.

Abstract

This research aims to discover various aspects of the user studies and the research in practice and also to propose collaboration methods by empirical analysis of the data. To determine the application applicability of the user studies in other subject areas, the degree of keyword overlap between the user studies and the User Experience (UX), one of the research in practice discipline, was measured. The quantitative information science methods including simple frequency analysis were applied to more than ten thousand published papers to generate the network mapping and ranking as well as comparative analysis by time. The analysis result showed that there were slightly lesser overlap between the user studies and the UX in the domestically published articles than the international ones. It also revealed that there is a relationship between the actual occurrences of collaboration and the keyword overlap. The temporal analysis showed that there is increasingly more keyword overlap between two disciplines and thus it is possible to predict the active convergence in the future.

정보관리학회지