如何改善WEBI中的刷新时间? 救命!!!

2020-09-21 08:33发布

         点击此处--->   EasySAP.com群内免费提供SAP练习系统(在群公告中)

加入QQ群:457200227(SAP S4 HANA技术交流) 群内免费提供SAP练习系统(在群公告中)


专家们,


实际上我在Webi中有一份报告(SAP BI 4.2 SP04),该特定报告具有3300万条记录(少于3年的数据),刷新时的总时间约为aprox。 10分钟 在Universe中使用以下参数:


数组提取大小:1000(我们已经测试了将此值增加到2000,但没有成功)

数组绑定大小:5000

并行查询:10

我们也使用了

DISABLE_ARRAY_FETCH_SIZE_OPTIMIZATION = true

它需要10到11分钟才能完成,因此我们可以优化这些刷新时间吗?

btw,我们使用SAP IQ 16作为数据源,并且该报告仅包含以下查询(由webi查询面板生成):

SELECT
Dim_Time.Year,
Dim_Time.Month,
datepart(dd,Modelo_Ventas。 FECHA),
Modelo_Ventas.TIENDA,
Modelo_Ventas.Des_Depto,
Modelo_Ventas.Des_SubDepto,
Modelo_Ventas.Des_Categoria,
Modelo_Ventas.Des_Marca,
Modelo_Ventas.Des_Grupo,
Sap_Compradores.A。 .name1,
Sap_T024X.LBTXT,
trim(convert(varchar(18), convert(numeric(18,0),Modelo _ Ventas.Material) ))+''+ TRIM(Modelo_Ventas.maktg),
Sum(Modelo_Ventas.VTA_PVTA),
SUM(Modelo_Ventas.VTA_UND),
Sum(Modelo_Ventas.Ganancia)
FROM
Dim_Time 内联接Modelo_Ventas ON(Modelo_Ventas.FECHA = Dim_Time。 GENERATED_DATE)
左外联接Sap_Compradores ON(Modelo_Ventas.DPTO = Sap _ Compradores.Cod_DptoIN)
INNER SAP_IVMATERIAL ON(Modelo_Ventas.Material = SAP _ IVMATERIAL.MATNR)
左外连接Sap_T024X ON(Sap_T024X.LABOR = SAP _ IVMATERIAL.LABOR)
左外连接 SAP_LFA1 开启(SAP_IVMATERIAL.KOLIF = SAP _ LFA1.lifnr)

WHERE
Dim_Time.Year IN(2017,2018,2016)
组 BY
Dim_Time.Year,
Dim_Time.Month,
datepart(dd,Modelo_Ventas。 FECHA),
Modelo_Ventas.TIENDA,
Modelo_Ventas.Des_Depto,
Modelo_Ventas.Des_SubDepto,
Modelo_Ventas.Des_Categoria,
Modelo_Ventas.Des_Marca,
Modelo_Ventas.Des_Grupo,
Sap_Compradores.Compradores,
Modelo_Ventas.1,Proveedor Sap_T024X.LBTXT,
trim(转换(varchar(18), 转换(数字(18,0),Modelo _ Ventas.Material)))+''+ TRIM(Modelo_Ventas.maktg)

请先感谢,让我知道您的建议或建议。

服务器详细信息

OS = Windows Server 2012

RAM = 50 GB

HDD = 1 TB

核心数= 6

服务器之间的

网络位于同一网段中。 没有任何防火墙或可能会受到影响的东西。

此致

         点击此处--->   EasySAP.com群内免费提供SAP练习系统(在群公告中)

加入QQ群:457200227(SAP S4 HANA技术交流) 群内免费提供SAP练习系统(在群公告中)


专家们,


实际上我在Webi中有一份报告(SAP BI 4.2 SP04),该特定报告具有3300万条记录(少于3年的数据),刷新时的总时间约为aprox。 10分钟 在Universe中使用以下参数:


数组提取大小:1000(我们已经测试了将此值增加到2000,但没有成功)

数组绑定大小:5000

并行查询:10

我们也使用了

DISABLE_ARRAY_FETCH_SIZE_OPTIMIZATION = true

它需要10到11分钟才能完成,因此我们可以优化这些刷新时间吗?

btw,我们使用SAP IQ 16作为数据源,并且该报告仅包含以下查询(由webi查询面板生成):

SELECT
Dim_Time.Year,
Dim_Time.Month,
datepart(dd,Modelo_Ventas。 FECHA),
Modelo_Ventas.TIENDA,
Modelo_Ventas.Des_Depto,
Modelo_Ventas.Des_SubDepto,
Modelo_Ventas.Des_Categoria,
Modelo_Ventas.Des_Marca,
Modelo_Ventas.Des_Grupo,
Sap_Compradores.A。 .name1,
Sap_T024X.LBTXT,
trim(convert(varchar(18), convert(numeric(18,0),Modelo _ Ventas.Material) ))+''+ TRIM(Modelo_Ventas.maktg),
Sum(Modelo_Ventas.VTA_PVTA),
SUM(Modelo_Ventas.VTA_UND),
Sum(Modelo_Ventas.Ganancia)
FROM
Dim_Time 内联接Modelo_Ventas ON(Modelo_Ventas.FECHA = Dim_Time。 GENERATED_DATE)
左外联接Sap_Compradores ON(Modelo_Ventas.DPTO = Sap _ Compradores.Cod_DptoIN)
INNER SAP_IVMATERIAL ON(Modelo_Ventas.Material = SAP _ IVMATERIAL.MATNR)
左外连接Sap_T024X ON(Sap_T024X.LABOR = SAP _ IVMATERIAL.LABOR)
左外连接 SAP_LFA1 开启(SAP_IVMATERIAL.KOLIF = SAP _ LFA1.lifnr)

WHERE
Dim_Time.Year IN(2017,2018,2016)
组 BY
Dim_Time.Year,
Dim_Time.Month,
datepart(dd,Modelo_Ventas。 FECHA),
Modelo_Ventas.TIENDA,
Modelo_Ventas.Des_Depto,
Modelo_Ventas.Des_SubDepto,
Modelo_Ventas.Des_Categoria,
Modelo_Ventas.Des_Marca,
Modelo_Ventas.Des_Grupo,
Sap_Compradores.Compradores,
Modelo_Ventas.1,Proveedor Sap_T024X.LBTXT,
trim(转换(varchar(18), 转换(数字(18,0),Modelo _ Ventas.Material)))+''+ TRIM(Modelo_Ventas.maktg)

请先感谢,让我知道您的建议或建议。

服务器详细信息

OS = Windows Server 2012

RAM = 50 GB

HDD = 1 TB

核心数= 6

服务器之间的

网络位于同一网段中。 没有任何防火墙或可能会受到影响的东西。

此致

付费偷看设置
发送
4条回答
天桥码农
1楼 · 2020-09-21 08:51.采纳回答

你好卡洛斯,

我希望您已经检查了性能调整Wiki页面 https://wiki.scn.sap.com/wiki/x/QCK7Gg

它讨论了可以最大程度地降低报告性能的所有可能性。 看看。

与此同时,我也同意Jawahar的观点:" Webi并不意味着要进行如此大的数据提取。"
Webi是ADHOC工具,旨在分析数据而不检索/存储大量数据。 对于任何报告工具而言,这些数据实在太多了。 而且,这不是设计Webi报表的最佳方法。
考虑使用查询钻取或提示之类的功能在一对链接的文档中提供相同内容的替代方法

谢谢,
Neha

CPLASF-自律
2楼-- · 2020-09-21 08:57

感谢您提出建议,我们也在devep尝试优化报告。 级别。

木偶小白
3楼-- · 2020-09-21 08:38

您正在将这么多记录拖到webi。 Webi不是数据转储工具。 将其用作报告工具。 没有人会看报告中的3000万条记录。

4楼-- · 2020-09-21 08:49

是的,我同意你的观点,我尝试向最终用户解释一下,

一周热门 更多>