如何部署 Rasa 聊天机器人

3
我使用Rasa框架构建了一个聊天机器人。现在我想在我的网站上部署它,但我不想使用Chatterbot或Docker进行部署。我正在搜索,但是找不到相关的信息。
如何在我的网站上部署聊天机器人?
1个回答

1
  1. 按照此处所述 (Rasa Core)(Rasa NLU) 的方式使用pip/anaconda安装Rasa Core和Rasa。
  2. 训练您的Core和NLU模型。
  3. 使用python -m rasa_nlu.server --path projects启动NLU作为服务器(有关文档,请参见这里)。请使用像nohup这样的工具,以便在关闭终端窗口时不会杀死服务器。
  4. 编辑Rasa Core的端点配置文件,使其链接到NLU(请参见此处的文档):

    nlu: url: "http://<your nlu host>:5000"

  5. 决定如何将机器人连接到Rasa。可能是通过REST或使用socketio。将所使用的通道配置添加到凭据文件中,例如对于REST:

    rest: # you don't need to provide anything here - this channel doesn't # require any credentials

  6. 运行Rasa Core

    python -m rasa_core.run -d <path to core model> \ -u <nlu model you want to use> \ --endpoints <path to your endpoint configuration (includes NLU url) \ --credentials <channel credentials>

  7. 从您的网站调用Rest或socket io端点。这里有一个小型聊天窗口,您可以将其嵌入到您的网站中,并使用socketio与Rasa通信。

我有一个静态网站,已经将其转换为Flask应用程序并运行。它正常工作。我不想使用此小部件(https://github.com/mrbot-ai/rasa-webchat)。请问如何在我的静态网站上部署? - Souren
@Souren 页面如果不使用JavaScript,无法显示动态内容。如果您不想使用此小部件,则必须自己编写类似的JavaScript代码。这可能需要很多工作。您可以将小部件放在静态页面上,但它必须连接到服务器,以便发送动态数据。 - furas

网页内容由stack overflow 提供, 点击上面的
可以查看英文原文,
原文链接