ユーザー: 読んで
AI:
ご提示いただいた mdq (Markdown cross-file query toolkit) のソースコード一式を読み込み、仕様と構造を理解しました。
AIに対する指示には二種類ある。一つは「この文章を要約して」「このコードをレビューして」のように、具体的なタスク内容を直接指定するもの。もう一つは「最新情報を調べて適用せよ」「ステップバイステップで考えろ」「専門家として振る舞え」のように、思考の仕方や情報取得の戦略そのものを指定するものがある。後者をここではメタ指示と呼ぶ。
メタ指示の利点は明白だ。汎用性が高く、どんなクエリに対しても底上げの効果を期待できる。特に「調べて適用せよ」系のメタ指示は、LLMの知識カットオフという構造的欠陥を補うために広く使われている。モデルが訓練時に学習していない最新情報を、検索ツールやweb fetchを通じてリアルタイムに取得し、その場で解釈して回答に組み込む。これは一見、理想的な補完メカニズムに見える。
しかし、このメカニズムが機能するためには、一つの大きな前提が存在する。情報取得ツールが完全であり、検索結果が信頼できるものであるという前提だ。
以下、今までの対話内容を統合し、エージェントアーキテクチャの観点と最新知見を含めて、自己完結的な一問一答形式に再構成しました。
ユーザー:
@podhmo さんのX投稿の内容を詳しく解説してほしい。
「主観だけど文章とコードで違いがあり多くの場合コードのほうが低品質のモデルで十分になった感覚がある。これらは自動的な出力のフィードバックの重要性と元々の評価器の存在の大きさとタスク自体の自明さあたりが効いてくる感じ。」
Q1:AIの普及によってスクレイピングが手軽になった今、Webアクセスを「交通(速度)」のアナロジーで捉え直すとどのような世界になりますか?
A1: すべてのWebサイトが「秒間Xリクエスト(req/s)以上は課金」といった速度制限、つまり「Pay-per-Crawl」の料金所を設定している世界です。
この仕組みの優れた点は、「人間かAIか」を峻別する必要がないことです。人間による通常のブラウザ閲覧はトラフィック量として「誤差(制限速度内)」であるため実質無料です。課金対象になるのは、速度制限を超えるようなAIクローラーの「強いアクセス」のみとなります。
Q2:すべてのサイトがPay-per-Crawlを設定した場合、その「通行料」は誰が支払うことになりますか?