KR-20260061821-A - METHOD, DEVICE AND PROGRAM FOR EXTRACTING CHARACTER KNOWLEDGE GRAPH FROM TEXT CONTENTS USING LARGE LANGUAGE MODEL
Abstract
일 실시예에 따른 거대 언어 모델을 이용하여 텍스트 콘텐츠로부터 인물관계도를 추출하는 방법은, 상기 텍스트 콘텐츠를 미리 정해진 크기보다 작은 크기를 갖는 조각(chunk)으로 분할하는 단계; 제1 거대 언어 모델에서, 각 조각에 대해 트리플 형식의 인물 관계 정보를 추출하는 단계; 모든 추출된 인물 관계 정보를 이용하여 노드와 엣지를 포함하는 초기 인물 관계도를 생성하는 단계; 및 상기 초기 인물 관계도를 수정하는 단계를 포함하고, 상기 수정된 초기 인물 관계도는, 우선순위에 따라 미리 정해진 개수 이하의 노드를 포함할 수 있다.
Inventors
- 박세운
- 김병학
- 천예은
- 정연석
Assignees
- 씨제이올리브네트웍스 주식회사
Dates
- Publication Date
- 20260506
- Application Date
- 20241028
Claims (11)
- 거대 언어 모델을 이용하여 텍스트 콘텐츠로부터 인물관계도를 추출하는 장치가 수행하는 방법에 있어서, 상기 인물관계도를 추출하는 장치의 제어부가, 상기 텍스트 콘텐츠를 미리 정해진 크기보다 작은 크기를 갖는 조각(chunk)으로 분할하는 단계; 제1 거대 언어 모델에서, 각 조각에 대해 트리플 형식의 인물 관계 정보를 추출하는 단계; 모든 추출된 인물 관계 정보를 이용하여 노드와 엣지를 포함하는 초기 인물 관계도를 생성하는 단계; 및 상기 초기 인물 관계도를 수정하는 단계를 수행하고, 상기 수정된 초기 인물 관계도는, 우선순위에 따라 미리 정해진 개수 이하의 노드를 포함하는, 인물관계도를 추출하는 방법.
- 청구항 1에 있어서, 각 노드의 상기 우선순위는, 각 노드에 연결된 엣지의 수 또는 엣지에 대응하는 서술어(predicate)의 명사형 여부 중의 적어도 하나에 기초하여 결정되는, 인물관계도를 추출하는 방법.
- 청구항 1에 있어서, 상기 제1 거대 언어 모델은, 지식 증류를 통해, 상기 제1 거대 언어 모델보다 성능이 우수한 제2 거대 언어 모델의 지식을 학습한 것인, 인물관계도를 추출하는 방법.
- 청구항 1에 있어서, 상기 초기 인물 관계도를 생성하는 단계 또는 상기 초기 인물 관계도를 수정하는 단계는, 동일한 인물을 나타내는 노드들을 병합하는 단계; 및 중요도가 낮은 엣지들을 제거하는 단계를 포함하는, 인물관계도를 추출하는 방법.
- 청구항 1에 있어서, 상기 제어부가, 상기 제1 거대 언어 모델에 대해 원샷(1-shot) 또는 퓨샷(few-shot)을 제공하여 인물 관계에 대해 학습을 수행하는 단계를 더 수행하는, 인물관계도를 추출하는 방법.
- 거대 언어 모델을 이용하여 텍스트 콘텐츠로부터 인물관계도를 추출하는 장치에 있어서, 상기 텍스트 콘텐츠를 미리 정해진 크기보다 작은 크기를 갖는 조각(chunk)으로 분할하고, 제1 거대 언어 모델에서, 각 조각에 대해 트리플 형식의 인물 관계 정보를 추출하고, 모든 추출된 인물 관계 정보를 이용하여 노드와 엣지를 포함하는 초기 인물 관계도를 생성하고, 상기 초기 인물 관계도를 수정하는, 제어부를 포함하고, 상기 수정된 초기 인물 관계도는, 우선순위에 따라 미리 정해진 개수 이하의 노드를 포함하는, 인물관계도 추출 장치.
- 청구항 6에 있어서, 각 노드의 상기 우선순위는, 각 노드에 연결된 엣지의 수 또는 엣지에 대응하는 서술어(predicate)의 명사형 여부 중의 적어도 하나에 기초하여 결정되는, 인물관계도 추출 장치.
- 청구항 6에 있어서, 상기 제1 거대 언어 모델은, 지식 증류를 통해, 상기 제1 거대 언어 모델보다 성능이 우수한 제2 거대 언어 모델의 지식을 학습한 것인, 인물관계도 추출 장치.
- 청구항 6에 있어서, 상기 제어부가 상기 초기 인물 관계도를 생성하거나 또는 상기 초기 인물 관계도를 수정하는 것은, 동일한 인물을 나타내는 노드들을 병합하고, 중요도가 낮은 엣지들을 제거하는 것을 포함하는, 인물관계도 추출 장치.
- 청구항 6에 있어서, 상기 제어부가, 상기 제1 거대 언어 모델에 대해 원샷(1-shot) 또는 퓨샷(few-shot)을 제공하여 인물 관계에 대해 학습을 수행하는 단계를 더 수행하는, 인물관계도 추출 장치.
- 거대 언어 모델을 이용하여 텍스트 콘텐츠로부터 인물관계도를 추출하기 위한, 기록매체에 저장된 프로그램에 있어서, 상기 프로그램은, 상기 텍스트 콘텐츠를 미리 정해진 크기보다 작은 크기를 갖는 조각(chunk)으로 분할하는 동작; 제1 거대 언어 모델에서, 각 조각에 대해 트리플 형식의 인물 관계 정보를 추출하는 동작; 모든 추출된 인물 관계 정보를 이용하여 노드와 엣지를 포함하는 초기 인물 관계도를 생성하는 동작; 및 상기 초기 인물 관계도를 수정하는 동작을; 컴퓨터에 실행시키고, 상기 수정된 초기 인물 관계도는, 우선순위에 따라 미리 정해진 개수 이하의 노드를 포함하는, 기록매체에 저장된 프로그램.
Description
거대 언어 모델을 이용하여 텍스트 콘텐츠로부터 인물관계도를 추출하는 방법, 장치, 및 프로그램{METHOD, DEVICE AND PROGRAM FOR EXTRACTING CHARACTER KNOWLEDGE GRAPH FROM TEXT CONTENTS USING LARGE LANGUAGE MODEL} 본 발명은 거대 언어 모델을 이용하여 텍스트 콘텐츠로부터 인물관계도를 추출하는 방법, 장치, 및 프로그램에 관한 것이다. 대규모 언어 모델(Large Language Model, LLM)은 주어진 프롬프트에 대해 인간과 유사한 응답을 생성하기 위해 방대한 양의 텍스트 데이터로 훈련된 인공지능 모델이다. LLM은 기존의 머신러닝 모델과는 달리, 인간의 언어를 이해하고, 사용자로부터 제공받은 지시사항에 따라 인간과 유사하게 작업을 수행하는 능력을 갖추고 있다. 이는 기계학습 알고리즘을 통해 구현되며, 텍스트 형태의 입력을 통해 사용자의 의도를 파악하고 적절한 반응을 생성한다. LLM에 텍스트를 제공하는 것을 프롬프트(Prompt)라고 한다. 프롬프트는 사용자의 지시사항, 질문, 요청 등이 될 수 있으며, 모델이 이를 해석하고 처리해 원하는 출력을 얻게 된다. 지식 그래프(Knowledge Graph, KG)란 정보나 지식을 노드(점)과 엣지(선)로 연결하여 표현한 그래프이다. KG는 LLM의 사전학습단계나 추론 단계에 통합되어 외부 지식을 제공할 수도 있고, LLM을 분석하고 해석을 제공하는 데에도 사용될 수 있다. 반대로 LLM을 사용하여 KG의 완성도를 더 높이는 것도 가능하다. 개체명 인식(Named Entity Recognition)은, 텍스트에서 사람, 장소, 조직 등의 특정 개체를 식별하고 분류하는 기술이다. 이 기술을 통해 텍스트 내의 중요한 단어나 구문을 인식하여, 어떤 개체들이 언급되고 있는지를 파악할 수 있다. 관계 추출(Relation Extraction)은 텍스트에서 인식된 개체들 간의 관계를 식별하고 추출하는 기술이다. 이 기술은 특정 개체들 사이의 상호작용이나 연결 고리를 파악하는 데 사용될 수 있다. 예를 들어, '홍길동은 서울에 산다'라는 문장에서 '홍길동'과 '서울' 사이의 '거주' 관계를 추출해 낼 수 있다. 관계 추출 기술을 통해 개체들 간의 복잡한 관계를 구조화된 정보로 변환할 수 있다. 퓨샷 러닝(Few-shot learning)은 인공지능 모델이 매우 적은 수의 레이블이 지정된 예제를 학습하여 정확한 예측을 수행하는 방법을 학습하는 머신 러닝 프레임워크이다. 퓨샷 러닝은 인공지능 훈련에 사용되지 않은 판별 대상에 대해 적은 수의 샘플(한 개 혹은 몇 개의 예시)를 가지고 가장 비슷한 대상을 찾아내는 것이다. 일반적으로 적절한 학습 데이터가 부족한 경우 분류 작업을 위한 모델을 학습하는 데 사용된다. 도 1은 일 실시예에 따른 인물관계도 추출 장치의 구성을 나타낸다. 도 2는 일 실시예에 따라 드라마 대본을 조각들로 분할하는 과정을 나타낸다. 도 3은 일 실시예에 따라 분할된 조각으로부터 인물 관계 정보를 추출하는 과정을 나타낸다. 도 4는 일 실시예에 따른 인물 관계 리스트를 생성하는 흐름도를 나타낸다. 도 5는 일 실시예에 따라 인물 관계 리스트로부터 인물 관계도를 생성하는 흐름도를 나타낸다. 도 6은 일 실시예에 따라 초기 인물 관계도를 생성하는 예시를 나타낸다. 도 7은 일 실시예 따른 인물 관계 정보로부터 전체 지식 그래프를 생성하는 흐름도를 나타낸다. 도 8은 일 실시예 따른 전체 지식 그래프로부터 메인 인물 지식 그래프를 생성하는 흐름도를 나타낸다. 도 9은 일 실시예에 따른 지식 증류를 위한 동작들의 흐름도이다. 도 10은 일 실시예에 따른 거대 언어 모델을 이용하여 텍스트 콘텐츠로부터 인물관계도를 추출하는 장치가 수행하는 방법의 흐름도를 나타낸다. 도 11은 일 실시예에 따른 인물관계도 추출 시스템의 구성도를 나타낸다. 이하, 본 개시의 일부 실시예들을 예시적인 도면을 참조하여 상세하게 설명한다. 각 도면의 구성 요소들에 참조부호를 부가함에 있어서, 동일한 구성 요소들에 대해서는 비록 다른 도면 상에 표시되더라도 가능한 한 동일한 부호를 가질 수 있다. 또한, 본 실시예들을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 기술 사상의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략할 수 있다. 본 명세서 상에서 언급된 "포함한다", "갖는다", "이루어진다" 등이 사용되는 경우 "~만"이 사용되지 않는 이상 다른 부분이 추가될 수 있다. 구성 요소를 단수로 표현한 경우에 특별한 명시적인 기재 사항이 없는 한 복수를 포함하는 경우를 포함할 수 있다. 또한, 본 개시의 구성 요소를 설명하는 데 있어서, 제1, 제2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질, 차례, 순서 또는 개수 등이 한정되지 않는다. 구성 요소들의 위치 관계에 대한 설명에 있어서, 둘 이상의 구성 요소가 "연결", "결합" 또는 "접속" 등이 된다고 기재된 경우, 둘 이상의 구성 요소가 직접적으로 "연결", "결합" 또는 "접속" 될 수 있지만, 둘 이상의 구성 요소와 다른 구성 요소가 더 "개재"되어 "연결", "결합" 또는 "접속"될 수도 있다고 이해되어야 할 것이다. 여기서, 다른 구성 요소는 서로 "연결", "결합" 또는 "접속" 되는 둘 이상의 구성 요소 중 하나 이상에 포함될 수도 있다. 구성 요소들이나, 동작 방법이나 제작 방법 등과 관련한 시간적 흐름 관계에 대한 설명에 있어서, 예를 들어, "~후에", "~에 이어서", "~다음에", "~전에" 등으로 시간적 선후 관계 또는 흐름적 선후 관계가 설명되는 경우, "바로" 또는 "직접"이 사용되지 않는 이상 연속적이지 않은 경우도 포함할 수 있다. 한편, 구성 요소에 대한 수치 또는 그 대응 정보가 언급된 경우, 별도의 명시적 기재가 없더라도, 수치 또는 그 대응 정보는 각종 요인에 의해 발생할 수 있는 오차 범위를 포함하는 것으로 해석될 수 있다. 본 발명의 다양한 실시예에서, 대본은 드라마의 대본인 것으로 예시되어 있으나, 대본의 용도가 드라마에 한정되는 것은 아니며, 영화 또는 연극 등에 이용되는 대본에도 본 발명의 다양한 실시예가 적용될 수 있다. 본 발명의 다양한 실시예에서, LLM의 예시로 특정 LLM(예를 들어, GPT-4)가 사용되고 있으나, LLM의 범위가 이에 한정되는 것은 아니다. 본 발명에서는, 주어진 문장을 어절 단위로 구분하고 각 어절이 미리 정의된 특정 개체명 클래스(종류 또는 분류)에 해당될 경우 표기해주는 방식으로, 개체명 인식을 수행할 수 있다. 예를 들어, 「홍길동은 서울에서 CJ를 다닌다.」라는 문장을 어절 단위로 구분하고 개체명 클래스를 각각 표기해주면 다음과 같이 표현될 수 있다. 「홍길동은(PER_B; 사람 person) / 서울에서(LOC_B; 장소 location) / CJ를(ORG_B; 기관 organization) / 다닌다. 」 본 발명에서, 인물들에 대한 기술로부터 사실과 그 인물들간의 관계 뿐만 아니라, 인물에 관련된 장소나 특정한 사건에 대한 기술에 대해서도 개체명 클래스를 표기할 수 있다. 도 1은 일 실시예에 따른 인물관계도 추출 장치의 구성을 나타낸다. 도 1의 인물관계도 추출 장치는 제어부(110), 표시부(120), 통신부(130), 및 저장부(140)를 포함하고 있다. 제어부(110)는 인물관계도 추출 장치의 전반적인 제어 기능을 수행하고, 다른 부들을 제어할 수 있다. 제어부(110)는 예를 들어 프로세서(CPU 또는 GPU) 또는 엔진일 수 있다. 본 개시의 다양한 실시예에서 제어부(110)는 외부 장치(예를 들어 서버)에 위치할 수도 있다. 제어부(110)는 저장부(140)에 저장된 프로그램 및 데이터를 이용하여 인물관계도 추출 장치의 다양한 동작을 수행할 수 있다. 본 발명의 다양한 실시예에서 제어부(110)는, 대규모 언어 모델을 포함할 수도 있고, 대규모 언어 모델을 호출할 수도 있다. 표시부(120)는 제어부(110)의 제어에 의해, 저장부(140)에 저장된 사용자 인터페이스 및/또는 그래픽 사용자 인터페이스를 이용하여 다양한 콘텐츠를 표시할 수 있다. 여기서, 표시부(120)에 표시되는 콘텐츠는 다양한 텍스트 또는 이미지 데이터(각종 정보 데이터 포함)와 아이콘, 리스트 메뉴, 콤보 박스 등의 데이터를 포함하는 메뉴 화면 등을 포함할 수 있다. 또한, 표시부(120)는 터치 스크린일 수 있다. 표시부(120)는 액정 디스플레이(Liquid Crystal Display: LCD), 박막 트랜지스터 액정 디스플레이(Thin Film Transistor-Liquid Crystal Display: TFT LCD), 유기 발광 다이오드(Organic Light-Emitting Diode: OLED), 플렉시블 디스플레이(Flexible Display), 3차원 디스플레이(3D Display), 전자잉크 디스플레이(e-ink display) 등이 포함될 수 있으며, 표시부(120)에 사용되는 기술이 상기 예시된 것에 한정되는 것은 아니다. 통신부(130)는 유/무선 통신망을 통해 내부의 임의의 구성 요소 또는 외부의 임의의 적어도 하나의 장치와 통신 연결할 수 있다. 여기서, 무선 인터넷 기술로는 무선랜(Wireless LAN: WLAN), DLNA(Digital Living Network Alliance), 와이브로(Wireless Broadband: Wibro), 와이맥스(World Interoperability for Microwave Access: Wimax), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), IEEE 802.16, 롱 텀 에볼루션(Long Term Evolution: LTE), LTE-A(Long Term Evolution-Advanced), 광대역 무선 이동 통신 서비스(Wireless Mobile Broadband Service: WMBS), 5G