ホーム › 掲示板 › AL日本語意味解析について › 知識は加法群
知識は加法群
知識は加法群
-
投稿者投稿
-
-
2019年2月13日 10:52 #1125professorキーマスター
□知識は加法群□
知識は文(単文、複文、重文)であり、意味のある文から知識の条件を満たした文が知識として採用される。知識としての条件とは、下記に記す定義を満たすこと。すなわち、加法群としての性質を持つことである。
1.知識の演算
(1)定義
1)同じ知識の加算は不変
a+a=a
2)異なる知識の加算は新知識 加法性
a+b=c 但し、a≠c、b≠c
c =a+bはcという知識は、aとbという知識に分割可能
3)知識の加算は可換性 可換性
a+b=b+a
4)知識の三段論法とModusPonens 三段論法
d=a+c, e=b+c 代入すると、d=a+(e-b) d+b=a+e
可算すると、d+e=a+b+2c=a+b+c
(2)空知識 単位
Φ
(3)負の知識 否定や反義
知識の否定が負の知識
a+(-a)=Φ
上記3)の可換性や4)の代入やの際に用いられた
a+b=c a=c-b=c+(-b)
(4)知識の仮説 <仮説検証> 知識の仮説検証
知識aの仮説をa’と表す
a’+b=a+b これはa’=aとなり、仮説が正しい
a’+b=cなら、a’=c+(-b)となり、cとbの否定の加算がaとなる場合は仮説が正しい
a’+b=?≠a+b’ これは不明
(5)一次結合 基底の加法性
a1+a2+a3+…+an
(6)一次従属 従属性(上下層と加法性)
a1+a2+a3+…+an=Φ これらの知識は一次従属になる
a1=(-a2)+(-a3)+…+(-an) なぜなら、a1は左辺の否定知識で表現されるから…
(7)一次独立 独立性(イデアル)
a1、a2、a3、…、an 各知識は他の知識の一次結合では表現できない
2.作用素 行列の仮説検証
(1)作用素fが知識xに作用して知識yを生成する
y=fx 関数とするとy=f(x)にしたいが、fはxを内包しないので… f:=行列
fx=Φ 作用素fがxに対して意味を持たない場合
(2)作用素の加算 行列の加法性
fx+gx=(f+g)x=fx+gx=gx+fx ド・モルガンの法則
(3)恒等作用素Φ
Φx=x 加法群の単位元
(4)負の作用素 行列の符号変換
fx=y
(-f)x=(-y)
fx+(-f)x=y+(-y)=Φ
(-f)x=(-fx)
(5)合成作用素 行列の積
fx=y,gy=z→g(fx)=z 作用素の合成は非可換性fg≠gf
(6)逆作用素f-1 逆行列
f・f-1= f-1 f=Φ
y=fx なら、f-1y=f-1fx=Φx=x 準同型写像の「核」
3.知識集合の性質
(1)知識の基底集合E={e1,…,en}と作用素集合F={f1,…,fn}から イデアル
知識集合X=f1e1+…+fnen と表すことができる
これを利用して、一般の知識も基底で表すことができる
(2)一意性 一意性
異なる基底をもつ知識は、異なる知識
x=f1e1+…+fmem
y=fm+1em+1+…+fnen
x≠y 意味概念ベクトルの類似度で計算
同じ基底をもつ一つの知識の表し方は一通り
(3)空知識からなる知識集合は空集合Φ 意味なし
(4)知識集合Xの濃度は可算 濃度可算
有限個の基底から可算個の知識集合が構成できるのは、有限個の基底に対して可算個の作用素が適用されて
可算個の一次結合の知識が生成できるからである。
4.部分集合と位相空間化 知識集合の演算
A⊂X 補集合AcもXの部分集合
1)A∪A=A、A∩A=A
2)A∪B=B∪A、A∩B=B∩A
3)A∪(B∪C)=(A∪B)C,A∩(B∩C)=(A∩B)∩C
4)A∪(B∩C)=(A∪C)∩(A∪C),A∩(B∪C)=(A∩B)∪(A∩B)
5)A∪(A∩B)=A,A∩(A∪B)=A
補集合についても、ド・モルガンの法則が成り立つ 以上
※注意※ □加法性でよく間違えるのが、Word2Vecという単語ベクトルどうしの加算と減算で新たな単語ベクトルが生成できるというGoogle社が提案した「王様-男+女=女王」という研究課題の問題である。これは分散表現 という次元を下げて基底を抽出した概念ベクトルに視点やジャンルを特定して処理する研究段階の論文である。「パリ-フランス+日本=東京」という例題でいうなら、答えの「東京」という概念ベクトルがどんな表現なのかは「分布」というベクトルで表現されているので、左辺の加減算で得たベクトルの高頻値ではなく、「東京」というベクトルとの類似度の高さで検証されるものである。応用としては、(男、女)(伯父、伯母)(息子、娘)という男女間関係のベクトルの類似性が高いことを表す性質があり、北朝鮮と中国の関係が日本にとってどのようなことなのかという高等な質問にも答えることができるなどが期待できる。また、語意の違いを「(小雨-雨)~(小利口-利口)」として表現ができたりもする。 □ディープラーニングで創る単語概念ベクトルの方法は、例えば「データ」という単語の概念ベクトルは、「単語間の類似度はデータ量に比例して精度が上がる。」という文を抽出すると、入力層は、(単語、間、の、類似度、は、量、に、比例、して、精度)という前後5形態素の単語ベクトルになり、これら10個の単語ベクトルを抽出/生成し、その中に「データ」という単語が含まれる確率を求めて、それを数百回、数万回繰り返し、ベクトル化するものであるので精度はデータ量に依存される。 □SCMは2次Gran行列であり、one-hotベクトルの行列とは違う。加算でできるのは上位概念であり、単語なら上位語になり、単語の集合ならトピックスになる。これも「分布」なので注意すること。 □Word2Vecを使ったCBoW は周辺単語から単語を予測し、Skip-gramは単語から周辺単語を予測するものである。これらを大域的に包括したのがSCMである。比較的少ないデータ量で精度が期待できる最良の方法論である。
-
-
投稿者投稿
- このトピックに返信するにはログインが必要です。