Next.js应用生成 robots.txt 和 sitemap.xml
为了优化 seo,生成 robots.txt 和 sitemap.xml 是必不可少的功能。 Next.js 自身并不提供生成 robots.txt 和 sitemap.xml 的特性,所以需要自己实现。
Server Side Render(SSR)
sitemap.xml.js
在 pages/ 目录下创建 sitemap.xml.js。当浏览器访问 http://<your-domain>/sitemap.xml 路径时, Next.js 会调用 sitemap.xml.js 处理请求并响应。 在下面的例子中,我请求后台 api 获取 sitemap 数据,并返回给浏览器。
import react, { Component } from "react";
import fetch from 'isomorphic-unfetch';
export default class SiteMap extends Component {
static async getInitialProps({req, res}) {
if(res) {
const response = await fetch(`http://${req.headers['host']}/api/sitemap`);
const text = await response.text();
res.setHeader("Content-Type", "text/xml");
res.write(text);
res.end();
}
}
}robots.txt
同样地,在 pages/ 目录下创建 robots.txt 文件。
import React, { Component } from "react";
export default class Robots extends Component {
static getInitialProps({ res }) {
res.setHeader("Content-Type", "text/plain");
res.write(`User-agent: *
Disallow:
Sitemap: https://www.imlc.me/sitemap.xml`);
res.end();
}
}Static Export
如果你是以生成静态文件的方式部署你的网站,那么事情就相当简单了。因为生成的静态文件都在 out/ 目录下,你只需要写个简单的脚本生成 robots.txt 和 sitemap.xml,并置于 out/ 目录下。
原文:https://www.imlc.me/p/generate-robots-txt-and-sitemap-xml-in-next-js-zh
本文内容仅供个人学习、研究或参考使用,不构成任何形式的决策建议、专业指导或法律依据。未经授权,禁止任何单位或个人以商业售卖、虚假宣传、侵权传播等非学习研究目的使用本文内容。如需分享或转载,请保留原文来源信息,不得篡改、删减内容或侵犯相关权益。感谢您的理解与支持!