ナレッジベースの記事とウェブサイトのページに同じコンテンツがある場合、Googleは重複していると判断するのでしょうか?

freshdeskでナレッジベース(サポート記事)を作成していますが、ウェブサイトの一部のページにナレッジベースの記事と同じ内容があります。Googleはこれを重複コンテンツと見なしているのか知りたいです。ページを削除するか、ナレッジベースの記事にリダイレクトする必要がありますか? これはウェブサイトのページhttps://www.casefox.com/web/lawpay.html そして、これはナレッジベースの記事http://support.casefox.com/s

レスポンシブ・ウェブサイト <meta name="viewport" content="width=device-width, initial-scale=1">。

どこを見ても(Web.devなど)、携帯電話でWebサイトを拡大・縮小するためには、HTMLファイルのヘッダーに<meta name="viewport" content="width=device-width, initial-scale=1">を使用しなければならないと書かれています。 もしあなたが「モバイルファースト」の原則に基づいてウェブサイトをデザインし、CSSメディアクエリを使用し、vhやvw、pxではなく%などのスケーラブルなサイズ単位を使用しているなら、本当に

Google Search Consoleでリダイレクトエラーを確認するにはどうすればよいですか?

Google Search Consoleから厄介なリダイレクトエラーが発生しています。 残念なことに、上記のレポートでは、何がエラーの原因なのか、開発者としての情報があまり得られません。また、Inspect URLをクリックしても、あまり情報は得られませんでした。 どちらのケースでも、Googleはリダイレクトエラーの背後にある痕跡や、エラーの具体的な原因について何も教えてくれないのは明らかです。Googleのドキュメントでは、リダイレクトエラーの潜在的な原因を4つ挙げてい

imgタグにrel="nofollow "を追加するには?

img タグに rel="nofollow" 属性を付けることは意味がありますか? 検索エンジンのクローラーは、この属性をPageRankスコアの計算に何らかの形で使用しているのでしょうか? また、実際に使用する意味はありますか(あるとすれば)? 私たちのサイトはカナダへの移民について2つの言語で書かれており、国旗の画像を使用しています。 " 国旗の画像にno-followタグを追加するにはどうしたらいいですか?" 英語では、カナダへの移民にはカナダの国旗を使用し、ペルシャ語

私とは関係のないサイトと記事を交換しているサイトとバックリンクのために記事を交換するべきでしょうか?

ここ数週間、新興企業からバックリンクのための記事交換をしないかと打診されています。バックリンクはSEOにとって重要ですから、最初は面白いと思いました。 しかし、ここで問題があります。彼らのウェブサイトを見ると、それぞれの記事は、彼らの活動に多かれ少なかれ関連する他のウェブサイトとのコラボレーションであり、私のウェブサイトとは無関係であることが非常に多いのです。 私たちのテーマとは全く異なる、非常に幅広い数のウェブサイトからバックリンクを得ているウェブサイトからバックリンクを得

なぜブラウザは.jpg画像だけを表示し、.jpeg画像を表示しないのですか?

CDNネットワークに保存されている画像のアドレスに直接アクセスして、CDNネットワークの速度をテストしています。これらの画像の中には、jpgフォーマットのものもあれば、jpegフォーマットのものもあります。 jpgファイルのアドレスをブラウズすると、デフォルトでは常に画像が表示されていることに気づきました。google chromeや同様のブラウザでinspectメニューのnetworkタブを確認すると、レスポンスの種類がimgで常に表示されていることがわかります。しかし、j

シングルページアプリの場合、大きなsitemap.xmlファイルをウェブクローラーに提供する適切な方法は何ですか?

Angularでシングルページアプリ(SPA)を構築しています。アプリ内で表示されるデータは、RESTコールを使ってバックエンドから取得します。これはソーシャルメディアのウェブサイトに関するもので、多くのユーザー生成ページがあることを意味します。 これは、sitemapsが非常に大きくなる可能性があることを意味しており、Angularアプリ自体にパッケージ化することは不可能です。また、ユーザーは常にユーザー生成コンテンツを追加、更新、削除するため、サイトマップのコンテンツはす

JavascriptのAPIコールをバックエンドのレンダリングシステムに変更すべきでしょうか?

現在、私はAPIを設定しており、そこから値を取得してページの項目を入力しています。しかし、Javascriptがクローラーによって実行されるかどうかについて様々な意見を読んだ後、バックエンドをテンプレートエンジンを使用するように変更すべきかどうかを考えていました。 明確にするために、私のサーバーはNode.jsのバックエンドを実行していますが、代わりにReactのようなものを使用することもできます。 これは、Googleは他のページへの内部リンクを重視していて、Sitemap

mod_rewriteを使用して、任意のレベルのURLパス内の文字列を特定のファイルにマッチさせるには?

どのように表現したらいいのかわからないので、すでに答えを見落としているかもしれませんが、ここに書いておきます...。 ヘルスチェック用の仮想的な何か「ファイル」を作成しようとしています。これにより、アドレスが.../checkのようなもので終わっている場合、サーバーレベルの設定ファイルの特定の場所にある.htmlファイルが提供され、バーチャルホストに関係なく、また/checkの前のパッチにあるもの(この例では)が存在するかどうかに関係なく、マッチします。 https://dn

まだ開設されていないウェブサイトのサイトマップをGoogleに送信するとどうなりますか?

定期的にサイトマップを自動生成するAngular Webアプリケーションを作っています。すべてのサイトマップの自動生成が完了すると、ping取得リクエストを使用してサイトマップの位置を自動的にGoogleに通知します。 本日、この機能を初めてテストしたところ、すべて正常に動作しました。サイトマップは一連のテストURLから作成され、amazon s3で作成したバケットにアップロードされました。その後、アプリケーションはサイトマップ・インデックス・ファイルのURLをGoogleに

ブログ/記事一覧のサイトマップは、単にブログのすべてのパスを含んでいるだけですか?

私はブログを持っていて、SOのような方法でブログ記事のインデックスを作ろうとしています。このsitemap.xmlファイルは、基本的にリストとして機能し、私のブログのURLをすべて含んでいるのでしょうか、それとも何か別の方法をとらなければならないのでしょうか?

ヘッダータグの階層をシフト(h1→h3→h3→h5) SEO

現在、h3,h4,h5のみを使用したウェブサイトを開発しています(デザイン部門からのラベルに基づいています)。ヘッダーの階層自体は合っているのですが、h1、h2、h3と上の階層にシフトすることで、SEOに良い影響があるのではないかと考えています。

XMLサイトマップのchangefreq値の選び方

私のsitemap.xmlファイルでは、すべてのURLに対して次のような行を入れています。 <changefreq>weekly</changefreq> しかし実際には、ほとんどのページはあまり頻繁には変更されません。 ただし、http://example.com/copywritersには頻繁に新しいページが追加されます(1日に数ページ追加されることもあれば、全く追加されない日もあれば、1~2ページしか追加されない日もあります)。 毎日、新しいブログ記事が投稿されます。

複数のサイトマップを提出することにメリットとデメリットはありますか?

ほとんどのプロジェクトでWordPressを使用しており、通常はGoogle Search Consoleに「mysite.com/sitemap_index.xml」を送信していますが、いくつかのサイトのPostが注目されておらず、インデックスされていないことに気づきました。エラーも警告もペナルティも出ていませんし、すべて100%オリジナルで有効なコンテンツです。 Googleは "sitemap_index.xml "を送信するとすべてを認識すると言っていますが、特定の

Google WorkspacesがドメインDNSに設定されていないMXレコードを拾ってしまう

最近、新規事業のウェブサイト用に、クライアントに代わってGoDaddyオークションでドメインを取得しました。私はそのサイトを構築し、ホスティングしています。 現在、Google Workspacesを設定中で、txtレコード検証とmxレコードの追加を終えたところです。重要なのは、Godaddyがレジストラであるにもかかわらず、Godaddyのネームサーバーを使用しておらず、Digital Oceanのネームサーバーを使用していることです。 mxレコードを検証しようとすると、*

ボットがページをクロールしたときに、余分なスクリプト(トラッカー、CRMなど)をスキップすべきでしょうか?

ボットはUser-Agent(1、2)で識別できますが、それほど単純ではありません。利点は、ボット用の大きくておそらく無駄なリソースをスキップして、コアコンテンツだけを提供することです。 これに対するベスト・プラクティスは何でしょうか?ボット用の余計なリソースをスキップすることに価値があるのか?もしそうなら、ボットを検出するためのベストプラクティスは何か? 例えば、特定の ?bot=true クエリ文字列を使用して、手動でチェックする(そして、それらのページがインデックス可能