関数型玩具製作所

英語ページはこちら(English page is here)

関数型玩具製作所は、最新のテクノロジーを駆使して実用的な玩具を開発しています。

難解な文章の攻略

aseri1 現在は「難解な文章」を攻略する技術を開発しています。
定義がふんわりとしていますが、以下のような本をイメージしてください。


読めない・読みづらい文章は、読める可能性が出てきます。
不都合なく読めている文章も、読む負担を大幅に取り除けます。


言語の拡張

我々は文章理解を支援するための言語拡張ソフトウェア(テキストトランスフォーマー)を開発しました。
これにより、複雑な文章を簡単に理解できるようになります。
上でカタカタ動いているのは、そのデモ動画です。
難解な文章を出力している際のChatGPTに適用しています
言語拡張ソフトウェアは3つの機能で構成されています。
しかしデモ動画では3つの機能が同時に適用されています。
理解のために、3つの機能を順を踏んで確認できる事例を以下にご用意しました。

以下は教科書の冒頭に見られる文章の例です。
ちょっとしたクイズですが、「各章で扱われる題材」を把握してみてください。
「各章がそれぞれどう違うか」にフォーカスしてください。
そしてクイズが解けたら、ボタンをクリックしてみてください。
3段階で進化するプロセスを体験できます。

1. 初期状態2. 適切な位置で改行3. モノ単位の強調4. 重要語の色付け
(タブレット、パソコンを推奨)

文章での例

ギミックボタン

1. 初期状態

この教科書は以下のように構成されています。 第1章では、グラフ観点での自然言語処理を概観します。 第2章では、グラフベースの伝統的な手法を紹介します。 第3章では、グラフニューラルネットワークを説明します。 第4章では、グラフ構築を説明します。 第5章では、グラフ表現学習を議論します。 第6章では、グラフエンコーダ・デコーダモデルを議論します。 第7章では、グラフニューラルネットワークの自然言語処理におけるアプリケーションを紹介します。 第8章では、グラフニューラルネットワークの自然言語処理における課題を議論します。 第9章では、グラフニューラルネットワークの自然言語処理における今後の方向性を議論します。

図1は、グラフ構築、グラフ表現学習、エンコーダ・デコーダモデル、アプリケーションの4つの軸に沿って、自然言語処理におけるグラフニューラルネットワークのアプローチを体系的に整理したものです。

2. 適切な位置で改行

この教科書は以下のように構成されています。
第1章では、グラフ観点での自然言語処理を概観します。
第2章では、グラフベースの伝統的な手法を紹介します。
第3章では、グラフニューラルネットワークを説明します。
第4章では、グラフ構築を説明します。
第5章では、グラフ表現学習を議論します。
第6章では、グラフエンコーダ・デコーダモデルを議論します。
第7章では、グラフニューラルネットワークの自然言語処理におけるアプリケーションを紹介します。
第8章では、グラフニューラルネットワークの自然言語処理における課題を議論します。
第9章では、グラフニューラルネットワークの自然言語処理における今後の方向性を議論します。

図1は、グラフ構築、グラフ表現学習、エンコーダ・デコーダモデル、アプリケーションの4つの軸に沿って、自然言語処理におけるグラフニューラルネットワークのアプローチを体系的に整理したものです。

3. モノ単位の強調

この教科書以下のように構成されています。
第1章では、グラフ観点での自然言語処理を概観します。
第2章では、グラフベースの伝統的な手法を紹介します。
第3章では、グラフニューラルネットワークを説明します。
第4章では、グラフ構築を説明します。
第5章では、グラフ表現学習を議論します。
第6章では、グラフエンコーダ・デコーダモデルを議論します。
第7章では、グラフニューラルネットワーク自然言語処理におけるアプリケーションを紹介します。
第8章では、グラフニューラルネットワーク自然言語処理における課題を議論します。
第9章では、グラフニューラルネットワーク自然言語処理における今後の方向性を議論します。

図1は、グラフ構築グラフ表現学習エンコーダ・デコーダモデルアプリケーションの4つの軸に沿って、自然言語処理におけるグラフニューラルネットワークアプローチ体系的に整理したものです。

4. 重要語の色付け

この教科書以下のように構成されています。
第1章では、グラフ観点での自然言語処理を概観します。
第2章では、グラフベースの伝統的な手法を紹介します。
第3章では、グラフニューラルネットワークを説明します。
第4章では、グラフ構築を説明します。
第5章では、グラフ表現学習を議論します。
第6章では、グラフエンコーダ・デコーダモデルを議論します。
第7章では、グラフニューラルネットワーク自然言語処理におけるアプリケーションを紹介します。
第8章では、グラフニューラルネットワーク自然言語処理における課題を議論します。
第9章では、グラフニューラルネットワーク自然言語処理における今後の方向性を議論します。

図1は、グラフ構築グラフ表現学習エンコーダ・デコーダモデルアプリケーションの4つの軸に沿って、自然言語処理におけるグラフニューラルネットワークアプローチ体系的に整理したものです。



答えの解説

まず、改行により整然とした構造が明らかになります。
1行のままだとこれは見えてきません(教科書でこの1行は、思いのほか散見されます)。
次に、モノ単位の強調により「何が」という視点で整理されます。
最後に、重要語の強調により、、
 まず、グラフ、グラフニューラルネットワークが大事なんだなと分かります。
 次に、それぞれの章の差異が際立ちます。
 例えば第4章から第6章の、グラフ「構築」、グラフ「表現学習」、グラフ「エンコーダ・デコーダモデル」、です。


画像での例

画像を使った例もご用意いたしました。こちらの方がより分かりやすいかもしれません。
上記の3つの機能は、画像における以下の変化に対応しています。
各ボタンを押して、違いを体験してみてください。
ギミックボタン

1. 初期状態

折返し

2. 適切な位置で改行

スタック

2. 普段見ている文章

ボケボケ

3. モノ単位の強調

ボケボケ

4. 重要部分の色付け

クッキリ

画像の場合、以下の3つの改善が加えられています。
  1. 画像単位で整列(折り返さない)
  2. ぼやけている部分がなく、鮮明な画像
  3. モノクロではなくカラー画像
画像の改善点を参考に、言語の側ももう一度ご確認いただければと思います。



画像と言語の違い

上では画像との対比・類推を用いて言語拡張を説明しましたが、言語は画像とは異なる特性を持っています。
例えば、「適切な位置での改行」は画像と同様に分かりやすい改善点です。
一方、「モノ単位の強調」「重要語の色付け」は、一見しただけではその効果が分かりづらいかもしれません。
場合によっては、これらの改善が逆に読みづらいと感じる方もいるかもしれません。

「モノ単位の強調」
aseri1


「重要語の色付け」
aseri1

理論的説明

しかし、理解の本質や言語の本質を考慮すると、上記の3つの拡張が両方の観点で正統な拡張であることが分かります。
詳しくは別の項目で説明しますが、端的に言うと以下の7点です。
  1. 「分かる」(理解する)とは、現実を「分ける」こと
  2. 「同じもの」は同じ、「違うもの」は違う、とされること
  3. 言語は現実を記号化したものであること
  4. 「同じもの」、「違うもの」の記号化ルールがあること
  5. ヒトは現実を「自然な単位」で眺めていること
  6. 言語側にも「自然な単位」が存在すること
  7. 「記号化のルール」と「自然な単位」の間には美しい関係があること

これら、特に7番目に気づいたとき、私はある種のカタルシスを感じました。
ご紹介している技術は一見してトリッキーですが、その有効性を確信した瞬間でした。


理論的説明の必要性

aseri1 ぜひ皆さんにもこの感覚を知っていただき、自信を持ってこの拡張を利用していただきたいと思います。
読書は非常に高度な知的行為です。
少しでも疑問が残ると、メタ認知状態に陥り、読書の効果が失われてしまいます。
例えば、音楽のハイレゾを思い出してください。
初期の頃、ハイレゾテストが流行り、普通のCD音源との違いが分からないため、ハイレゾの価値が疑問視されました。
この「違いが分かるかどうか」というメタ認知状態では、耳が緊張し、外部から得る情報量が減少します。
そのため、二つの音源の違いが分からなくなるのです。
このメタ認知は、ハイレゾに限らず、普段の読書でも起こり得ます。
「今、私は言葉を理解して読んでいるか」と自己批判すると、読む行為自体が難しくなります。
よく考えると、紙の上の図形から現実を再構築する読書行為は異常とも言える行為です。
異星人や他の動物が我々の読書行為を見たら、不思議に思うことでしょう。
しかし、我々はこの行為に慣れており、隣人や先人が普通に読書をしているので、それを疑うことはありません。
トレーニングを通じて、自分も同様に読書できると信じることができます。
そのため、疑うというメタ認知が発生しません。
ただし、上記の3つの拡張機能は利用例が少なく、初期のハイレゾのようにメタ認知が発生しやすいです。
その際に、
という確信が得られれば、「これは習得すべきだ」という気持ちを強化し、メタ認知の発生を抑えやすくなります。
少なくとも私はその確信を得て、開発を続けることができました。
是非、下記リンク先をご一読してほしいです。

理論的説明(リンク)

こちら

サンプル

こちら

サンプルも用意してたりします。
理論的説明はそこそこ難解なので、先にサンプルを体験したほうが良いかも知れません。


余談

aseri1
「普段見ている文章」は本当にこんなにボケているのかと、やり過ぎじゃないかと思われるかも知れません。
しかし既に言語拡張を活用している私(Ishikawa)からするとこれくらいの違いがあります。
そんなに難しくない文章であれば問題ないのですが、専門性が高く難解な文章になるとこのレベルの違いです。
正直、紙で白黒で読みたくないです。
プログラマの人向けだと「メモ帳」でコードを読んでいる、もしくは1行になったhtmlを読んでいる、というと分かるかもです。


「メモ帳(白黒)の1行のHTML」
aseri1


「構造化されシンタックスハイライトのかかったHTML」
aseri1

おまけ(デモ動画)


相性の良い文章

この拡張機能は、特にChatGPTやWikipediaの文章と相性が良いです。
なぜこの拡張機能が特定の文章と相性が良いのかについては、理論的な説明で詳しく触れます。
「難解な文章」であればあるほど、「簡単」に理解できるようになるという興味深い事実があります。

利用できる環境

ファイル形式

この拡張機能は、Webページはもちろん、電子書籍(Epub, PDF)でも利用可能です。

プラットフォーム

PC(Windows, Mac, Linux)でも、モバイル(タブレット、スマホ)でも動作します。ブラウザが動作する環境であれば、問題なく利用できます。

利用形態(二つ)

読者が拡張機能を用意すれば、上記のすべての文章形式で利用できます。
また、読者が拡張機能を用意できなくても、筆者側が事前に自分の文書に適用することも可能です。
その場合、読者はその文書にブラウザでアクセスするだけで拡張機能を利用できます。
上記のリンク先にある体験サンプルがまさにその状況です。
特別なソフトウェアのインストールは不要です。

実製品 - Safari拡張

iPhoneやiPadをお持ちの方は、Safari拡張としてPPL++の機能制限版を利用できます。

テキストトランスフォーマー - PPL++

「自然な単位」(サーバー連携が必要)だけは利用できませんが、その他の機能は利用可能です。
機能が制限されているというデメリットはありますが、サーバー連携がないため、買い切り(サブスクリプションや追加課金がない、広告もない)で利用できること、そしてセキュリティが万全であることがメリットです。

もう一つの体験版

※イベント等のリアルで実機をお見せした方向けですが、アレはこのSafari拡張ではなく、フル機能版です(自然な単位のボールド強調が入っています)。以下で体験版の形で提供しています

体験版