サイトマップはSEO対策に欠かすことはできません。
必ず製作しましょう。

ココで言う(SEO的な)サイトマップとは
訪問者にサイト内のコンテンツ一覧を表示するHTMLで作ったサイトマップではありません。
よくサイト上段の端辺りにサイトマップとリンクが貼付されてるものとは違います。

検索Botにサイトのコンテンツを案内する表示板(Map)のことです。

検索エンジンは、サイト内のリンクを辿ってページ収集しますが
総てのページをクロールしてインデックスしてくれる訳ではありません。
そこでクロール&インデックスして欲しいページをサイトマップに記載して案内してあげると言うことです。

また、皆さんも経験されてると思いますが
サイトネームでトップページをHitさせたいのに変なページがHitしたりするのも
サイトマップでページの priority(優先権)を指定することで少し対策になるかもしれません。
当サイトでは主要4ページを1.0に設定してますが、当初は主要ページを0.8くらいで様子をみて
Hit状況に応じて調整をできる幅を残した方が良いでしょう。

製作するには、いくつかの約束ごとがありますが
サイトマップについて詳しく解説されてるホームページは多数ありますので割愛させていただきます。

サイトマップを製作したら、適当な名前(sitemap.xml 等)を付けて適当な場所(ドキュメントルート)にアップロードします。

Google,Yahoo,bing(旧MSN)には、マスターツールやサイトエクスプローラー等の名前でツールが用意されてますので登録するようにします。

まずは、アカウントを取得→ID/Passwordでログイン→URLを登録
続いて、サイトが自分の物であると言うことを認証します。
認証方法は
メタタグに各検索エンジンが用意した鍵を書き込む方法or各検索が用意したファイルをトップディレクトリにアップロードする方法を選択できます。

サイト認証が終われば、最後にサイトマップのある場所を登録すれば完了です。

ウェブマスターツールは、サイトマップの指定以外にも
色々と情報提供して貰えるので是非活用されることをお勧めします。
もしサイト登録・マップ登録するのが面倒な方は、ロボットテキストで指定します。
ほとんどの検索Botは、ロボットテキストに対して従順に対応してくれます。
Google,Yahoo,bing以外のBotに対しても有効ですので
サイトマップを登録された方も必ずロボットテキストは設定しましょう。

robots.txtと名前をつけたファイルに以下を書込みます。

User-agent: *
Sitemap: http://www.idal.jp/sitemap.xml
Crawl-delay: XX

「User-agent: *」
「*」は総ての検索エンジンに対応する
検索エンジンを指定する場合はコードを指定します。

googl:User-agent: Googlebot
yahoo:User-agent: Slurp
bing:User-agent: psbot
など

「xx」には0.5~10などの数値を指定する
数値が小さいほどクロール頻度が多くなります。

ロボットテキストは、ドメイン直下にアップロードしなければ効果がありませんのでお気をつけください。

当サイトで例えるなら

http://www.idal.jp/ココにロボットテキストをアップロードします。

http://www.idal.jp/itsystem/この場所では効果がありません。

また、http://www.idal.jp/~XXX 
のようなドメインにはロボットテキストは設置しても効果がありませんので・・・