
AIネイティブIDE「Cursor」は、開発者の生産性を劇的に向上させる強力なツールとして2026年も注目を集めています。私も日々の開発でその恩恵を強く感じています。しかし、多くの開発者が直面するのが、Cursor Google 自動化 できないという壁です。特にGoogle Workspaceのような複雑なサービス群をAIで完全に自動化しようとすると、「なぜかうまく動かない」「期待通りに動作しない」といった悩みにぶつかることが少なくありません。
「AIを使えば何でも自動化できるはず」という期待とは裏腹に、なぜCursorをもってしてもGoogleの自動化は難しいのでしょうか?2026年現在、この問題の背景には、単なるコードの書き方の問題だけではない、より深い技術的・アーキテクチャ的な壁が存在します。
この記事では、「CursorでGoogle自動化が動かないのは私だけ?」と悩むあなたのために、見落としがちな3つの技術的壁を深掘りします。Google APIの厳格なセキュリティポリシー、AIモデルのレート制限と予期せぬコスト、そして動的なWeb UIとアンチボット対策がどのように自動化を阻むのかを具体例とともに解説し、現実的な解決策を提示します。この記事を読み終える頃には、あなたのGoogle自動化プロジェクトが次のステージに進むための明確な道筋が見えているはずです。
Google APIの厳格なセキュリティと権限管理の壁
Cursorを使ってGoogleサービスを自動化しようとする際、最初に立ちはだかるのがGoogle APIの厳格なセキュリティと権限管理です。Googleはユーザーデータの保護を最優先しており、APIアクセスには非常に詳細なポリシーと認証プロセスを要求します。これはセキュリティ上当然のことですが、自動化を目指す開発者にとっては大きな障壁となるのです。特に2026年現在、AIによる脅威の高度化に伴い、Google Workspaceのセキュリティ要件はさらに強化されています。
OAuth 2.0の複雑な実装とサービスごとの差異
Googleサービスとの連携に不可欠なのがOAuth 2.0です。しかし、この認証プロトコルの実装は、想像以上に複雑で、Googleの各サービス(Gmail、Drive、Calendarなど)で細かな要件が異なります。
- 多岐にわたるスコープ: 例えば、Gmailのメール読み取りには
https://www.googleapis.com/auth/gmail.readonly、送信にはhttps://www.googleapis.com/auth/gmail.sendといったように、非常に粒度の細かい権限(スコープ)を正確に指定する必要があります。 必要な権限を最小限に抑えることはセキュリティの基本ですが、AIに「自動的に最適な権限を選ぶ」ことを任せるのは困難です。 - 認証フローの多様性: Webアプリケーション、デスクトップアプリケーション、モバイルアプリケーションなど、クライアントの種類によって推奨される認証フローが異なります。Cursorで生成したコードが、これらの複雑な認証フローを適切にハンドリングできていない場合、認証エラーで自動化が停止します。
- APIごとの挙動の不一致: 2026年現在でも、OAuth 2.0の標準仕様がありながら、各APIプロバイダーが独自の解釈や拡張を加えています。Googleも例外ではなく、特定のパラメータの要件がサービス間で異なることがあります。 これにより、あるGoogleサービスで動作した認証コードが、別のサービスでは機能しないといった問題が発生します。
このような複雑さは、AIがコードを生成する際に、すべてのパターンを網羅し、常に最新の要件に適合させることを極めて困難にしています。結果として、AIが生成したコードが認証の壁に阻まれ、「動かない」という事態が頻発するのです。
データプライバシーとセキュリティポリシーの制約
Googleは、ユーザーデータの保護に関する厳格なポリシーを設けています。特に、AIがユーザーの機密データにアクセスする際には、透明性とセキュリティが強く求められます。
- 限定的なデータ利用: Google Workspace APIのポリシーでは、ユーザーデータはアプリケーションの機能提供に直接関連する目的でのみ利用が許可されています。AIがユーザーデータを広告目的で利用したり、第三者に販売したりすることは厳しく禁止されています。
- 承認プロセス: 第三者アプリケーションがGoogleサービスにアクセスする際には、ユーザーが明示的に権限を承認するプロセス(同意画面)が必要です。この手動の承認ステップは、AIによる完全な自動化のボトルネックとなります。特に企業環境では、管理者がサードパーティアプリのアクセスを厳しく制限しているケースがほとんどです。
- シャドーAIとコンセントフィッシング: 2026年には「シャドーAI」(承認されていないAIツールの利用)や「コンセントフィッシング」(悪意のあるアプリに誤って権限を与えてしまう)が新たなセキュリティリスクとして浮上しています。 Googleはこれらの脅威に対抗するため、APIの利用状況やアクセス権限の監査機能を強化しており、AIによる自動化コードもこれらの厳しいチェックの対象となります。
AIが生成する自動化スクリプトがこれらのポリシーに準拠しているかを完全に保証することは難しく、少しでも逸脱すればアクセス拒否やアカウント停止のリスクを伴います。これが、CursorでのGoogle自動化が「できない理由」の根源的な一つです。
▶ あわせて読みたい:CursorでのGoogle自動化:AIコーディングで業務を効率化する秘訣
📐 Cursor Google自動化の仕組みと課題
AIモデルのレート制限と予期せぬコスト増大

CursorがGoogle自動化のコード生成に利用するAIモデル(GPT-5.4、Claude Opus 4.6、Gemini 3.1 Proなど)には、それぞれ厳格なレート制限とトークン使用量に基づく課金体系が存在します。この「見えない壁」が、開発者が予期せぬエラーやコスト増大に直面する大きな原因となっています。
APIプロバイダー側のレート制限による中断
Cursorは、内部で複数のAIモデルを組み合わせて利用していますが、ユーザーが自身のAPIキーを設定してGoogleのAIモデル(例:Gemini 3.1 Pro)を使用する場合、そのレート制限はGoogle側で管理されます。
- 「User API Key Rate limit exceeded」エラー: 多くのCursorユーザーが経験するのが、このエラーメッセージです。これは、CursorがAPIリクエストをGoogleに転送した際に、Google側のAPIキーの使用制限を超過したために発生します。 興味深いことに、ユーザーが自身のアプリケーションから直接同じAPIキーでリクエストを送ると成功するのに、Cursor経由だと失敗するという報告も上がっています。 これは、Cursorの内部的なリクエスト処理が、Google側のレート制限とうまく調和していない可能性を示唆しています。
- トークン使用量の不一致: 大量のコンテキストや長い出力を伴うリクエストでは、Googleが設定する最大トークン数を超過することがあります。例えば、50万トークン以上の入力で「The input token count exceeds the maximum number of tokens allowed」というエラーが発生する事例が報告されています。 AIモデルの進化により、扱えるコンテキストウィンドウは拡大していますが、それでも上限は存在し、特に複雑な自動化タスクでは容易に到達し得ます。
- モデルごとの制限: Googleのモデルには、無料の「Experimental」版と有料の「Preview」版でレート制限の厳しさが異なることがあります。 無料版を試しているうちに、すぐに制限に達してしまうケースも珍しくありません。
Cursorはこれらのレート制限を直接制御しているわけではなく、APIプロバイダーから返されたエラーをそのままユーザーに提示するため、開発者は根本的な原因を把握しにくい状況に陥りがちです。
Cursorの課金体系と予期せぬコスト増大
2025年8月の価格体系変更以降、CursorのProプランは「リクエスト数ベース」から「使用量ベースのクレジット」へと移行しました。
- $20のフロンティアモデル使用量: Proプランには月額$20分のフロンティアモデル(GPT-5.4、Claude Opus 4.6など)使用料が含まれていますが、このクレジットは複雑なタスクや長時間のAgentモード利用であっという間に消費される可能性があります。 例えば、Claude Sonnet 4.6で約225リクエスト、Geminiで約550リクエスト、GPT-5.4で約650リクエストが目安とされていますが、これはあくまで中央値であり、実際の使用状況によっては大きく変動します。
- 「Auto」モードの誤解: Cursorの「Auto」モードは、利用可能なモデルの中から最適なものを自動選択してくれる便利な機能です。しかし、「Auto」モードでの「無制限利用」は、特定のモデルに限定されており、すべてのフロンティアモデルが無制限に使えるわけではありません。 この誤解により、意図せず高額なモデルが使われ、クレジットを早く消費してしまうことがあります。
- オーバーエイジによる高額請求: クレジットを使い果たした後も、設定によっては追加料金が発生し、月額$40〜$60以上、場合によっては$200〜$300といった予期せぬ高額請求につながるケースも報告されています。 Cursorの設定で「オンデマンド使用」をオフにすることで、クレジット超過後の課金を防ぐことができますが、この設定を見落としがちです。
このように、AIモデルのレート制限とCursorの課金体系は密接に関連しており、Google自動化の「できない理由」の一つとして、コストパフォーマンスの悪化や予期せぬ中断が挙げられます。
▶ あわせて読みたい:AIと開発環境の最前線:Cursor、GitHub、AWS資格達成、そしてパナソニックの挑戦
動的なWeb UIとアンチボット対策による自動化の不安定性

Googleのサービスは、ユーザーエクスペリエンスを向上させるために、常に進化する動的なWeb UIを採用しています。加えて、悪意のある自動化(ボット)からサービスを保護するための高度なアンチボット対策を講じています。これらが、CursorによるGoogle自動化を不安定にし、「動かない」原因となることが多々あります。
頻繁なUI変更とセレクタの無効化
WebスクレイピングやRPA(ロボティック・プロセス・オートメーション)の経験がある方ならご存知の通り、WebサイトのUIが変更されると、自動化スクリプト内で使用している要素のセレクタ(XPathやCSSセレクタなど)が無効になり、スクリプトが動作しなくなることは日常茶飯事です。Googleのサービスは、特にその傾向が顕著です。
- A/Bテストとパーソナライゼーション: Googleは常にA/Bテストを行い、ユーザーごとに異なるUIを表示することがあります。また、ユーザーの行動履歴に基づいたパーソナライズされたUIも一般的です。これにより、AIが生成した自動化スクリプトが、特定の環境でしか動作しない、あるいはすぐに陳腐化してしまう問題が発生します。
- コンポーネントの動的な生成: GoogleのWebページは、JavaScriptによって多くの要素が動的に生成されます。これにより、ページ読み込みのタイミングやユーザーの操作によって、要素のIDやクラス名が変化したり、DOM構造自体が変わったりすることがあります。AIが一度学習したセレクタが、次の実行時には存在しない、といった状況が頻繁に起こり得ます。
- Shadow DOMの利用: 一部のGoogleサービスでは、Shadow DOMのようなWebコンポーネント技術が利用されています。これは、DOMツリーから隔離された独立したコンポーネントであり、通常のセレクタでは内部の要素にアクセスできません。AIがこの特殊な構造を理解し、適切なセレクタを生成するのは非常に高度な技術を要します。
CursorのAIはコードベース全体を理解する能力に優れていますが、Web UIの動的な変化にリアルタイムで適応し、毎回最適なセレクタを生成し続けることは、現在の技術では困難です。
高度なアンチボット対策と検出メカニズム
Googleは、スパム、不正アクセス、データ搾取などの悪意ある活動から自社サービスを保護するため、世界最高水準のアンチボット対策を導入しています。AIによる自動化も、その検出メカニズムの対象となるため、簡単にブロックされてしまいます。
- 行動パターン分析: 人間とボットの行動パターンには明確な違いがあります。例えば、クリック速度、マウスの動き、入力の自然さ、スクロールの仕方などが分析されます。AIが生成したスクリプトが、あまりにも機械的な操作を繰り返すと、ボットとして検出されやすいのです。
- IPアドレスとデバイスフィンガープリント: 短期間に同一IPアドレスから大量のリクエストがあったり、一般的なブラウザのフィンガープリントと異なる挙動をしたりすると、自動的にブロック対象となります。VPNやプロキシを使用しても、Googleの検出システムは非常に高度です。
- CAPTCHAとreCAPTCHA: 自動化の最大の敵の一つがCAPTCHAです。GoogleのreCAPTCHAは、AIによる画像認識や行動分析を駆使して人間かどうかを判断するため、AIが生成したコードでこれを突破するのは極めて困難です。AI自体がCAPTCHAを解く能力を持っていたとしても、それが自動化スクリプトに組み込まれてしまうと、さらに複雑な検出ロジックが発動する可能性があります。
- AIによる自動化の自己修復機能の限界: 2026年にはAIが自動化を自己修復する能力も進化していますが、Googleのアンチボット対策も同時に進化しているため、完全に追いつくことは難しいのが現状です。
これらのアンチボット対策は、AIによる自動化の「動かない理由」として、非常に根本的かつ回避が難しい課題となっています。AIが生成したコードが完璧に見えても、その背後にあるGoogleの防御メカニズムによって阻まれてしまうのです。
▶ あわせて読みたい:AI時代の開発を加速するCursorの最新機能と活用戦略

ひできち: 😊 Google APIのセキュリティ設定やAIの予期せぬコスト増大、最初の壁って本当に高いですよね!でも、その壁を乗り越えた先には、とてつもない可能性が広がっていますよ。粘り強く取り組んでみてくださいね!
🎬 関連動画
AIモデルの「確信犯的」ハルシネーションとコードの信頼性
Cursorが利用するAIモデル、例えばGPT-5.4やClaude Opus 4.6、Gemini 3.1 Proは、驚くほど高度なコード生成能力を持っています。しかし、それでもなお、AIモデルの「確信犯的」ハルシネーション(誤情報生成)は存在し、特にGoogleのような複雑なエコシステムを自動化する際には、生成されるコードの信頼性に大きな課題をもたらします。
AIが生成する「もっともらしいが誤った」コード
AIモデルは、大量のデータから学習しているため、文脈に沿った「もっともらしい」コードを生成する能力に長けています。しかし、そのコードが常に技術的に正確であるとは限りません。
- API仕様の誤解釈: GoogleのAPIドキュメントは膨大であり、常に更新されています。AIが学習した時点の情報が古かったり、特定のAPIのマイナーな挙動やエッジケースを誤解釈したりすることがあります。例えば、特定のAPIエンドポイントのパラメータが実際には必須であるにもかかわらず、AIが生成したコードでは省略されている、といったケースです。
- 非推奨機能の利用: AIが学習データに含まれる古いコードパターンを参考に、現在では非推奨となっているAPIやライブラリの使用を提案することがあります。このようなコードは一時的に動作するかもしれませんが、将来的に予期せぬエラーやセキュリティ脆弱性を引き起こす原因となります。
- 抽象的な指示による誤生成: 「Google Driveでファイルを自動的に整理するスクリプトを書いて」といった抽象的な指示では、AIは最も一般的なシナリオに基づいてコードを生成します。しかし、ユーザーが意図する「整理」の具体的なロジック(例:特定のキーワードを含むファイルを別のフォルダに移動し、古いファイルはアーカイブする)が複雑である場合、AIは誤った、あるいは不完全なロジックを生成し、自動化が失敗します。
Cursorは「Auto」モードで最適なモデルを選択し、コードベース全体を考慮した提案を行うことでハルシネーションを軽減しようとしますが、完璧ではありません。AIが生成したコードは、必ず人間の開発者による厳密なレビューとテストが必要です。
複雑なビジネスロジックへの適応の限界
Googleサービスを自動化する真の目的は、多くの場合、複雑なビジネスロジックを実装することです。しかし、AIモデルは、このような高度な要件に対して、まだ限界を抱えています。
- エージェントの「確信犯的間違い」: 2026年現在、AIエージェントは自律的に多段階のタスクを実行する能力を持っていますが、「確信犯的」に間違ったパスを追求したり、ハルシネーションを起こしたりすることがあります。 特にクライアントや収益、評判に影響を与えるような重要な決定を伴う自動化では、人間のチェックポイントが不可欠です。
- 最新のコンテキスト認識の難しさ: Cursorはコードベース全体のコンテキストを深く理解すると評価されていますが、Googleサービスと連携する「外部」の最新情報(例:Google Workspaceの最新の機能アップデート、特定の組織のカスタム設定、リアルタイムの市場データなど)までを完全に把握し、自動化コードに反映させることは困難です。
- デバッグとエラーハンドリングの複雑性: AIが生成したコードにバグがあった場合、その原因特定と修正は、通常の人間が書いたコードよりも複雑になることがあります。AIがどのようにそのコードを生成したかの「思考プロセス」が不透明なため、デバッグに時間がかかり、最終的に自動化の導入が遅れる原因となります。特に、Google APIから返されるエラーメッセージは多岐にわたるため、AIがそれらすべてを適切にハンドリングするコードを生成するのは至難の業です。
AIは強力なアシスタントですが、まるで「高度なインターン」のように、その出力は常に人間の監督と検証が必要です。このAIモデルの根本的な限界が、CursorでのGoogle自動化を完全に信頼しきれない大きな理由となっています。
💼 活用事例
とある中小企業が、CursorとGemini 3.1 Proを使って、Google Drive上の週次レポートファイルを自動的に集計し、Google Sheetsに転記するシステムを構築しようとしました。CursorのAgentモードに「Driveから最新の週次レポート(PDF形式)をすべて取得し、各PDFから特定の数値データを抽出し、Google Sheetsの指定されたシートに追記するPythonスクリプトを生成して実行せよ」と指示しました。
初期のスクリプトは問題なく生成され、小規模なテストでは成功しました。しかし、実運用を開始すると、以下の問題が頻発しました。
- UI変更によるセレクタの無効化: ある日、Google DriveのファイルリストのUIがわずかに変更され、PDFファイルへのリンクを取得するセレクタが無効化。スクリプトが停止しました。AIは新たなセレクタを提案しましたが、その度に手動での確認と修正が必要でした。
- レート制限の超過: 週次レポートの数が数百に上ると、PDFからのデータ抽出処理でGoogle Document AI API(内部で利用される可能性のあるAPI)やGemini APIへのリクエストが短時間に集中し、「User API Key Rate limit exceeded」エラーが発生。スクリプトが途中で中断し、不完全なデータがSheetsに転記される事態が発生しました。
- ハルシネーションによるデータ抽出ミス: 一部のPDFレポートでフォーマットがわずかに異なっていた際、Gemini 3.1 Proが「もっともらしいが誤った」数値を抽出してSheetsに転記。例えば、「売上高」と「純利益」の数字を取り違えるなど、致命的なミスが発生しました。これは、AIがPDFの文脈を完全に理解しきれなかったことによるハルシネーションが原因でした。
この企業は、最終的に「完全に自動化する」という目標から「AIを補助的に活用し、重要な部分は人間の目で確認する」という方針に転換。特にデータ抽出と転記の最終確認は、AIによる提案をベースにしながらも、人間がダブルチェックするプロセスを組み込むことで、ようやく安定した運用を実現しました。この事例から、AIによる自動化は「完全に任せる」のではなく「賢く協調する」スタンスが2026年時点では不可欠であることがわかります。

ひできち: 😊 動的なWeb UIの自動化やAIのハルシネーションには、本当に悩まされますよね。AIが自信満々に嘘をつくこともありますから、出力されたコードや情報を鵜呑みにせず、常に検証する姿勢が大切ですよ!
よくある質問
Q: CursorでGoogle自動化がうまくいかない場合、まず何を確認すべきですか?
A: まずは、Google APIの認証情報(APIキー、OAuthクライアントID・シークレット)が正しく設定されているか、必要なスコープがすべて許可されているかを確認してください。また、Cursorのコンソールやログでエラーメッセージを詳しく確認し、レート制限やトークン制限に関連するエラーが出ていないかをチェックしましょう。
Q: Google APIのレート制限を回避する方法はありますか?
A: Google APIのレート制限は、APIプロバイダー側で設定されているため、完全に回避することはできません。しかし、リクエスト間に意図的な遅延(time.sleep()など)を入れる、バッチ処理でリクエスト数を減らす、有料プランにアップグレードして制限を緩和する、といった対策が有効です。Cursorの「オンデマンド使用」設定を確認し、意図しない課金がないか管理することも重要です。
Q: 動的なWeb UIの変更にAIで対応するにはどうすれば良いですか?
A: 現在のAIモデルでは、動的なUIの頻繁な変更に完全に自動で適応させるのは困難です。セレクタの特定には、より頑健な方法(例:ID属性やユニークなテキストコンテンツをベースにする)をAIに指示する、またはAIが生成したスクリプトを定期的に手動で確認・修正する運用が必要です。将来的には、AIが視覚的にUIを認識し、より柔軟に対応できるようになることが期待されますが、2026年時点では人間の介入が不可欠です。
Q: AIが生成したコードのハルシネーションを防ぐには?
A: ハルシネーションを完全に防ぐことはできませんが、プロンプトを具体的に、かつ詳細に記述することで発生頻度を減らせます。例えば、対象のGoogle APIドキュメントへのリンクを提示したり、期待する出力形式やエラーハンドリングの要件を明確に伝えたりすることが有効です。また、生成されたコードは必ずテスト環境で動作確認し、重要なロジックは人間の目でレビューするプロセスを組み込みましょう。
Q: Cursor以外でGoogle自動化に適したツールはありますか?
A: CursorはAIコーディングに特化したIDEですが、Google自動化の側面では、ZapierやMakeのようなNo-code/Low-codeツール、またはSeleniumやPlaywrightといった従来のブラウザ自動化ライブラリとPython/JavaScriptを組み合わせるアプローチも有効です。用途に応じて、AIのコード生成と従来の自動化手法を組み合わせるハイブリッドな戦略が2026年では最も現実的です。
| 比較項目 | Cursor AIによるGoogle自動化 | 従来のPythonスクリプト/RPA | No-code/Low-codeツール (例: Zapier) |
|---|---|---|---|
| 初期開発速度 | 速い(AIがコード生成を支援) | 中程度(手動コーディング) | 非常に速い(GUI操作) |
| 複雑なビジネスロジックへの対応 | 中程度(AIのハルシネーションリスクあり) | 高い(開発者の制御性が高い) | 中程度(ツールの機能に依存) |
| UI変更への適応性 | 低い(セレクタの自動修正は困難) | 低い(手動修正が必要) | 中程度(一部ツールは視覚認識機能を持つ) |
| APIレート制限への対応 | AIモデルの制限を受けやすい | 開発者による制御が可能 | ツールの設計に依存(上限が設けられる場合が多い) |
| セキュリティと権限管理 | AI生成コードの確認が必要 | 開発者による厳密な管理が必要 | ツールの提供するセキュリティモデルに依存 |
| コスト | CursorとAIモデルの利用料(予期せぬ超過リスクあり) | 開発工数、サーバー費用など | 月額固定料金(タスク数やデータ量で変動) |
| 推奨される用途 | プロトタイピング、定型的なコード生成、既存コードの理解 | 高度なカスタマイズ、大規模システム連携、精密な制御 | 非開発者による簡単なタスク自動化、ツール間の連携 |

ひできち: 😊 技術の進化は早く、新しい課題も次々と出てきますね。でも、それもまた開発の醍醐味!失敗を恐れずに、色々な解決策を試すことが大切ですよ。私も皆さんと一緒に、日々学び続けていきたいです!
まとめ
Cursorは、AIコードエディタとして2026年の開発現場を革新する強力なツールです。しかし、Cursor Google 自動化 できないという悩みは、単なるスキルの問題ではなく、Google APIの厳格なセキュリティと権限管理、AIモデルのレート制限と予期せぬコスト増大、そして動的なWeb UIとアンチボット対策という3つの見落としがちな技術的壁が深く関わっています。
これらの壁を乗り越えるためには、「AIがすべてを解決してくれる」という幻想を捨て、より現実的なアプローチを取ることが重要です。AIは強力な「補助輪」であり、最終的な責任と判断は人間の開発者にあるという認識を持つべきだと私は強く感じています。
今後、あなたがCursorでのGoogle自動化プロジェクトを進める際には、以下の行動を強くお勧めします。
- Google APIのドキュメントを徹底的に読み込む: 特にセキュリティ、認証、各サービスのスコープに関する最新情報を常に確認し、AIが生成したコードがそれに準拠しているかを厳しくチェックしてください。
- AIモデルの利用状況と課金体系を常に監視する: Cursorの「オンデマンド使用」設定を見直し、予期せぬコスト超過を防ぎましょう。また、レート制限エラーが発生した際は、リクエスト頻度やバッチ処理の見直しを検討してください。
- AI生成コードのレビューとテストを徹底する: 特に動的なUI要素のセレクタや、複雑なビジネスロジックを含む部分については、人間による入念なレビューとテストを欠かさないでください。AIのハルシネーションは常にリスクとして存在します。
- 必要に応じて、他の自動化ツールとのハイブリッド戦略を検討する: CursorのAIコード生成能力と、No-code/Low-codeツールやRPAツールの得意分野を組み合わせることで、より堅牢で効率的な自動化システムを構築できる可能性があります。
2026年のAI自動化は、まだ発展途上の領域です。AIを賢く使いこなし、その限界を理解することで、あなたのGoogle自動化プロジェクトは必ず成功に導かれるでしょう。この情報が、あなたの開発の助けになれば幸いです。


コメント