首先,假设您正在对已发布的AML端点进行计时测试。
调用AML时,第一个调用必须预热容器。默认情况下,Web服务具有20个容器。每个容器都是冷的,而冷的容器可能会导致较大的延迟(30秒)。在AML终结点返回的字符串中,仅计数
isWarm标记设置为true的请求。通过使用许多请求(相对于您正在运行的容器数量)粉碎服务,可以使所有容器变暖。
如果您要发送一个实例数十个请求,则端点可能受到限制。您可以通过转到manage.windowsazure.com/来调整端点可以接受的呼叫数。
- manage.windowsazure.com/
- 左栏中的Azure ML部分
- 选择您的工作区
- 转到网络服务选项卡
- 从列表中选择您的Web服务
- 使用滑块调整通话次数
通过在端点上启用调试,您可以获得有关每个模块要完成的执行时间的日志。您可以使用它来确定模块是否未按预期运行,这可能会增加时间。
总体而言,使用Execute python模块时会产生开销,但我希望此请求能在3秒内完成。



