我想创建一个相当简单的数学模型,描述系统中的使用模式和性能权衡。该系统的行为如下:
- 客户端定期向主机网络发出多播数据包 - 任何接收到数据包的主机都会直接回复单播答案 - 发起请求的主机缓存响应一段给定时间,然后将其丢弃 - 如果缓存已满,则在下次需要请求时,从缓存而非网络中提取数据 - 数据包大小固定,始终包含相同的信息 - 主机是对称的 - 任何主机都可以发出请求并回应请求
我希望产生一些简单的数学模型(和图表),描述上述系统进行某些更改时可用的权衡:
- 当您改变主机缓存响应的时间量时会发生什么?这可以节省多少数据?您可以避免多少次对网络的调用?(显然取决于活动情况) - 假设响应也是多播的,并且任何听到另一个客户端请求的主机都可以缓存它所听到的所有响应 - 从而节省自己可能进行的网络请求 - 这将如何影响系统的整体状态? - 现在,这个问题变得更加复杂 - 每个请求-响应周期都会改变网络中的另一个主机的状态,因此活动越多,缓存变得无效的速度就越快。我如何模拟主机数量、活动速率、缓存“脏度”(假设主机收听其他主机的响应)之间的权衡,并且这如何随着缓存有效期的变化而改变?不确定从哪里开始。
我真的不知道需要什么样的数学模型,或者如何构建它。显然,只改变两个参数更容易,但特别是对于最后一个问题,我要探索的可能有四个变量正在改变。
感谢您的帮助和建议。
- 客户端定期向主机网络发出多播数据包 - 任何接收到数据包的主机都会直接回复单播答案 - 发起请求的主机缓存响应一段给定时间,然后将其丢弃 - 如果缓存已满,则在下次需要请求时,从缓存而非网络中提取数据 - 数据包大小固定,始终包含相同的信息 - 主机是对称的 - 任何主机都可以发出请求并回应请求
我希望产生一些简单的数学模型(和图表),描述上述系统进行某些更改时可用的权衡:
- 当您改变主机缓存响应的时间量时会发生什么?这可以节省多少数据?您可以避免多少次对网络的调用?(显然取决于活动情况) - 假设响应也是多播的,并且任何听到另一个客户端请求的主机都可以缓存它所听到的所有响应 - 从而节省自己可能进行的网络请求 - 这将如何影响系统的整体状态? - 现在,这个问题变得更加复杂 - 每个请求-响应周期都会改变网络中的另一个主机的状态,因此活动越多,缓存变得无效的速度就越快。我如何模拟主机数量、活动速率、缓存“脏度”(假设主机收听其他主机的响应)之间的权衡,并且这如何随着缓存有效期的变化而改变?不确定从哪里开始。
我真的不知道需要什么样的数学模型,或者如何构建它。显然,只改变两个参数更容易,但特别是对于最后一个问题,我要探索的可能有四个变量正在改变。
感谢您的帮助和建议。