自分が注目している研究分野は 2 つあります。1 つはブロックチェーン、もう 1 つは人工知能です。正直言って、chatGPT の登場は予想よりも早かったです。もしかしたら、後で振り返ってみると、今年は本当に特別な年だったのかもしれません。
いくつかの人気のある製品#
自分の経験#
最近、自分は chatGPT の新しいモデルを使い続けていますが、これは画期的な製品だとますます感じています。これにより、個人は専門知識に依存する必要がなくなり、創造力がさらに解放されるようになりました。
自分自身の例を挙げると、最近は Python のウェブスクレイピングを学んでおり、自分のブログのすべての記事をスクレイピングして、最終的にはテーブル形式で出力したいと考えています。以前なら、どのような方法で実現するかを考え、自分で多くのテストを行う必要がありました。しかし、今では自然言語で自分の要件を chatGPT に伝えるだけで、問題のない論理的なコードが返されます。自分がする必要があるのは、その中のパラメータを少し変更して、自分の実際の要件に合わせることだけです。
以下に、GPT 4 が生成した Python のウェブスクレイピングコードを示します。自分は find () メソッドの一部と class 属性を少し変更しましたが、これは驚くほど効率的です。
import requests
from bs4 import BeautifulSoup
import pandas as pd
# ターゲットURLを定義
base_url = 'http://chiloh.cn'
page_url = '/page/'
# リクエストを送信し、総ページ数を取得
response = requests.get(base_url)
soup = BeautifulSoup(response.text, 'html.parser')
last_page = int(soup.find('ol', class_='page-navigator').find_all('a')[-2].text.strip())
# 記事のタイトル、リンク、公開日を格納するための空のリストを作成
data = []
# すべてのページをループ処理
for i in range(1, last_page + 1):
url = base_url + page_url + str(i)
response = requests.get(url)
soup = BeautifulSoup(response.text, 'html.parser')
# すべての記事のタイトル、リンク、公開日を取得
articles = soup.find_all('article', class_='post')
# すべての記事をループ処理し、タイトル、リンク、公開日を抽出してdataリストに追加
for article in articles:
title = article.find('h2', class_='post-title').text.strip()
link = article.find('a', href=True)['href']
date = article.find('date', class_='post-meta').text.strip()
data.append([title, link, date])
# dataリストをpandasのDataFrame形式に変換
df = pd.DataFrame(data, columns=['タイトル', 'リンク', '公開時間'])
# DataFrameを'typecho.csv'という名前のCSVファイルとして保存
df.to_csv('typecho.csv', index=False)
自分の感想#
会社の日報には、以下のような感想を書きました。実際には、製品に関連するいくつかのアイデアもありましたが、敏感な内容なので削除しました。大まかな意味は、ここ半年の自分の経験と考え方です。
AI は予想以上に速くやってきました。振り返ってみると、以前に登場した多くの製品は、まるでアヒルの前の水暖器具のようでした。AI は人間の知恵の子供のようであり、私たちが言う本質に限りなく近づいていますが、本質ではありません。AI は「すべて」であることができます。
それに対する理解は、以前の製品の経験と自分の考えを組み合わせて、製品の実現を目指しているものと一致しています:
情報の伝達の障壁の低減
人間の対話型のプロンプトインタラクション方式は、入力と出力の難しさを大幅に減らし、個人は専門知識に制約されることなく、より多くの創造力を発揮することができます。狭義のスーパーエージェントはますます増えており、表現の空間は肉眼で見える成長範囲です。
情報の流通速度の向上
マルチモーダルなモデルにより、情報の形態はもはや重要ではありません。以前に想像したように、情報は固体、液体、さらには気体になることができます。そして今、情報はテキスト、画像、音声、ビデオになることができます。
これはつまり、「フロー」という新しいものが現れるかもしれないことを意味します。それはさまざまなアプリケーション、さまざまな役割の間を流れ、1 つのアプリケーションではテキストであり、別のアプリケーションではビデオかもしれませんが、それらが伝えるべき情報は同じシーケンス情報です。
モードを超えた情報は、流通する際に自然なフローになります。それは任意の形状に流れ込むことができ、望ましい形に変形することができます。
情報の品質の損失と回復
情報の形態の変換には、さまざまな時空間での損失が必ず発生します。ビデオからテキストに変換すると、画像が失われます。まるで会議でカメラを見る必要があるように、これは失われた情報です。しかし、逆に考えると、私たちが行っていることは、情報の本質をできるだけ回復することです。
オンライン会議のように、オフラインでお互いを見ることが失われますので、多くの会議ソフトウェアはカメラを備えています。視線による対話を強化し、ノイズリダクションを行うことは、本質的には時空間での情報の全体像を回復することです。
異なる時空間では、異なる情報の損失が異なることを意味します。これはさまざまな情報の供給を意味します。自由な方法で次の時空間シーンに情報を提供する必要があります。さまざまなシーンと役割には、異なる情報の要求があります。情報の全体像を回復するプロセスは、これらの供給からより重要な部分を選択し、この「場」で可能な限り情報を回復することに似ています。
情報は異なる時空間で「死んで」しまうと考えると、AGI の生成能力は「創造と新生」を行っています。一部の情報は前の時空間で死んでしまいますが、次の時空間で新しい情報が生まれるでしょう。