測量模型 vs. 結構模型分析
Anderson & Gerbing(1988)建議以SEM分析研究模型時,依序進行下列兩階段較嚴謹
1. 測量模型(Msasurement Model Analysis) Outer Model 2.結構模型分析(Structure Model Analysis) Inner Model
結構模式與測量模式 Inner model and Outer model Outer model
參數估計
二階模型:PLS Alogorithm 使用"因素權重"(不使用重心權重法),一般模型使用路徑權重(差異不大)。(p313)
干擾設定:檢定連續干擾使用Mean-centered(交互項計算方式-Product Indicator、進階設定-均值中心,避免共線性問題, p470)。
當t值 (T值對應P值)
大於1.96時顯著水準為0.05(p<0.05)雙尾
大於2.58時顯著水準. 為0.01(p<0.01 雙尾
大於3.29時顯著水準為0.001(p<0.001雙尾
1.96和2.58,事實上都是z的檢定值,t的檢定值會根據樣本大小而變,因為t的檢定值會和自由度有關(df=n-1)
t > 3.29 達0.001的顯著水準 (前題:樣本數很大,如超過1萬等) 如果樣本數不是很大, Excel內輸入 =tinv(0.001,N) 會得到結果 (其中的N是指你的樣本數,你如果鍵入10000, 答案就會是3.29)
SmartPLS 3 in 5 Minutes [點我]
SEM的信度與效度 https://dasanlin888.pixnet.net/blog/post/34469240 [晨晰統計部落格新站]
編制量表(Scale)時,由於是以外顯(Manifest)的觀察變項(Observation variable,即題目)去測量看不見的特質(Trait,即潛在變項),因此研究者所設計的題目是否穩定且一致(信度)以及是否測量到想要探知的特質(效度)就顯的非常重要。
結構方程模式(Structural equation modeling, SEM)已成為近代分析典範,因此在量表的信效度分析上常使用SEM驗證。
SEM的建構信效度分析,根據Hair et al. (2006, pp.807-808) 的分類,將SEM取向的建構效度(Construct validity)分成收斂效度(Convergent validity,也稱聚合效度)、區別效度(Discriminant validity)以及實務上比較少見的理論效度(Nomological validity)。
一個潛在變項(ξ1),由三個觀察變項所反映(Reflect),其中λx11至λx31就是標準化因素負荷量(Standardized factor loading,SFL, 就跟探索性因素分析的因素負荷量是一樣的),SFL數值介於0至1之間,δ1至δ3是觀察變項的殘差(無法被潛在變項解釋的部分、反映型指標)。
因素負荷量λx11至λx31代表的是這個潛在變項與觀察變項之間的相關係數,而因素負荷量的平方就是代表該潛在變項對於該觀察變項的解釋力->反映(Square multiple correlation, SMC或稱為R2),在SEM中會將每一個觀察變項的變異數標準化為「1」,而1減掉SMC恰巧就是「潛在變項無法解釋觀察變項的殘差」(Residual or Error),也就是說「δ1+(λx11)2=1」。
建構信度(Construct reliability, CR 收斂信度)
潛在變項的信度檢定採用建構信度(Construct reliability, CR),也稱作組合信度(Component reliability)或複合信度(Composite reliability),英文縮寫都是CR。
內部一致性信度(Internal consistency reliability)為最常見的Cronbach’s α,其實SEM CR的公示也是類似的概念,可以把公式的分子當成「本身的變異數」,而分母則是「總變異數 = 本身的變異數 + 殘差變異數」,因此CR是一個介於0至1的比值,此數值越高代表「真實變異佔總變異的比例越高」,亦即內部一致性也是越高,最早提出這個概念的Fornell and Larcker (1981) 則是建議潛在變項的CR值能達到0.60以上。 # CR>0.6
收斂效度、聚合效度(Convergent validity)
潛在變項的收斂效度(聚合效度)以平均變異抽取量(Average Variance Extracted, AVE)最具有代表性
應該有發現AVE的公式跟CR非常相像吧!沒錯,它們的差別只是在CR是先將因素負荷量加總之後才求平方,但AVE是將因素負荷量求平方之後才加總。
其實AVE的意義非常容易理解,還記得每一個題目(觀察變項)的變異數被標準化為1,而「δ + λ2=1」,因此公式的分子代表的是「潛在變項可解釋觀察變項的解釋力總和」,而分母表示「觀察變項的總變異數」,事實上分母就只是「觀察變項的數目」,因此AVE的公式就只是把因素負荷量平方的加總再除以題目數量而已,因此AVE是指「SMC或R2的平均值」。
Fornell and Larcker (1981) 及Bagozzi and Yi (1988) 都建議潛在變項的AVE最好能超過0.50,因為這是表示潛在變項受到觀察變項的貢獻相較誤差的貢獻量來得多(50%),不過如果AVE要達到0.50以上,表示所有的因素負荷量的平均值必須高於0.71(因為(0.712)≒0.50),因此在實務上不是很容易達到,因此如果有五個潛在變項,就可以算出五個AVE,此時如果其中3個或4個潛在變項AVE可以達到0.50,其他潛在變項的AVE至少有達到0.30或0.40的標準,就大致可以接受了。根據Hair et al. (2006, pp.808) 的建議,標準化因素負荷量至少要達到0.50的門檻,亦即是說AVE至少也要有0.502也就是0.25。
References
Bagozzi, R., & Yi, Y. (1988) . On the evaluation of structural equation models. Journal of the academy of marketing science, 16(1), 74-94.
Fornell, C., & Larcker, D. (1981). Evaluating structural equation models with unobservable variables and measurement error. Journal of marketing research, 18, 39-50.
Hair, J. F., Black, W. C., Babin, B. J., Anderson, R. E., & Tatham, R. L. (2006). Multivariate data analysis (6th ed.). New Jersey : Prentice-Hall.
[區別效度] HTMT (heterotrait-monotrait ratio)
第三种方法叫异质-单质比率,也就是特质间相关(between-trait)与特质内(within-trait)相关的比率。它是不同构面间指标相关的均值相对于相同构面间指标相关的均值的比值。
我们用图来理解这里的“质”和“法”的概念。假设模型含2个潜变量Y1,Y2,每个潜变量各包含3个题项。
“质”:可以将这里的Y1和Y2看成是要测不同的特质,就因为它们是不同的“质”,所以才有Y1和Y2,而不是只有Y1,或只有Y2(类比水果,就是因为樱桃和香蕉是不同的水果,所以人们才用两种名称区分二者)。 理解“质”与“法”的区别
“法”:我们用3个指标x1-x3去代表Y1,可以理解为我们用3种方法(“法”)去测量特质Y1(“质”)。同样,用3种方法x4-x6测量特质Y2。
综上,Y1和Y2是异质(hetertrait),Y1和Y1自身、Y2与Y2自身是同质(monotrait),测量Y1的指标x1-x3与测量Y2的指标x4-x6之间属于异质异法(heterotrait-heteromethod),x1-x3之间属于同质异法(monotrait-heteromethod),即用3种不同的方法测量同一个特质Y1,x4-x6之间也属于同质异法。 HTMT的值便等于异质异法相关与单质异法相关之比。
上图中灰色区域是Y1的指标与Y2指标的相关系数,异质异法相关(heterotrait-heteromethod correlations)等于灰色区域9个数字的平均数,因为每个灰色区域的相关系数都代表异质异法的一个侧面,因此平均这些数便得到异质异法相关。
除了灰色区域外,其它数字属于单质异法,因为它们衡量的是同一个构面,只是方法不同而已。
想要区分效度成立,就是要构面之间区分度越大。因此,异质异法相关应该小,因为它们衡量了不同的东西,而单质多法相关应该大,因为它们衡量了相同的东西。即想要区分效度成立,分子应该尽可能小,分母应该尽可能大,那么整个公式的数值结果应该小。
成立条件:
比较保守的阈值为0.85,两构面间的HTMT不能大于0.85;
当构面概念相近时(如情感满意度,认知满意度,忠诚度),HTMT的阈值可放宽到0.90;
所有构面组合中HTMT的bootstrap置信区间不能包含1。
评价:HTMT的评价方法基于推断统计采用置信区间衡量区分效度,因此有其优势,但交叉载荷与Fornell-Larcker criterion两种方法仍然是主流。
#可实现软件:SmartPLS,R,Amos(需插件)
参考文献:
Hair, J. F., Hult, G. T. M., Ringle, C. M., & Sarstedt, M. (2017). A Primer on Partial Least Squares Structural Equation Modeling (PLS-SEM) (2 ed.). Thousand Oaks, CA: Sage.
R-Square
R Square statistics explains the variance in the endogenous variable explained by the exogenous variable(s).
For example, a variable Y influenced by X1, X2, and X3 has a R-Square value of 0.623. This would mean that 62.3% change in Y can be explained by X1, X2, X3.
In order to make it easier to interpret, look for the arrows that are pointing towards the dependent (endogenous) variable.
Falk and Miller (1992) recommended that R2 values should be equal to or greater than 0.10 in order for the variance explained of a particular endogenous construct to be deemed adequate.
Cohen (1988) suggested R2 values for endogenous latent variables are assessed as follows: 0.26 (substantial), 0.13 (moderate), 0.02 (weak).
Chin (1998) recommended R2 values for endogenous latent variables based on: 0.67 (substantial), 0.33 (moderate), 0.19 (weak).
Hair et al. (2011) & Hair et al. (2013) suggested in scholarly research that focuses on marketing issues, R2 values of 0.75, 0.50, or 0.25 for endogenous latent variables can, as a rough rule of thumb, be respectively described as substantial, moderate or weak.
F-Square
A variable in a structural model may be affected/influenced by a number of different variables.
Removing an exogenous(外生變數) variable can affect the dependent variable.
F-Square is the change in R-Square when an exogenous variable is removed from the model.
f-square is effect size (>=0.02 is small; >= 0.15 is medium;>= 0.35 is large) (Cohen, 1988).
Q-Square Q2
Q-square is predictive relevance, measures whether a model has predictive relevance or not (> 0 is good).
Further, Q2 establishes the predictive relevance of the endogenous constructs.
Q-square values above zero indicate that your values are well reconstructed and that the model has predictive relevance.
A Q2 above 0 shows that the model has predictive relevance.
In order to find out the Q Square value, run Blindfolding procedure in SMART-PLS. ###
內文:
Moreover, the Q-square values for brand authenticity, brand attachment, and brand loyalty are 0.161, 0.302, and 0.244, respectively.
Q-square value is predictive relevance, measures whether a model has predictive relevance or not. Q-square values above zero indicate that the model are well reconstructed and has predictive relevance.
Blindfolding https://www.smartpls.com/documentation/algorithms-and-techniques/blindfolding
Blindfolding is a sample re-use technique. It allows calculating Stone-Geisser's Q² value (Stone, 1974; Geisser, 1974), which represents an evaluation criterion for the cross-validated predictive relevance of the PLS path model.
We have discontinued support for blindfolding in SmartPLS 4 and removed the algorithm. The blindfolding method does not provide an out-of-sample assessment of predictive power. However, the PLSpredict preocedure and the cross-validated predictive ability test (CVPAT) provide the results required for an out-of-sample predictive power assessment (for further explanations, see Hair et. al, 2022). PLSpredict and the CVPAT have been implemented in SmartPLS and we recommend using these methods instead of blindfolding.
PLSpredict https://www.smartpls.com/documentation/algorithms-and-techniques/predict/
Cross-validated predictive ability test (CVPAT)
R-Square
R Square statistics explains the variance in the endogenous variable explained by the exogenous variable(s).
For example, a variable Y influenced by X1, X2, and X3 has a R-Square value of 0.623. This would mean that 62.3% change in Y can be explained by X1, X2, X3.
In order to make it easier to interpret, look for the arrows that are pointing towards the dependent (endogenous) variable.
Falk and Miller (1992) recommended that R2 values should be equal to or greater than 0.10 in order for the variance explained of a particular endogenous construct to be deemed adequate.
Cohen (1988) suggested R2 values for endogenous latent variables are assessed as follows: 0.26 (substantial), 0.13 (moderate), 0.02 (weak).
Chin (1998) recommended R2 values for endogenous latent variables based on: 0.67 (substantial), 0.33 (moderate), 0.19 (weak).
Hair et al. (2011) & Hair et al. (2013) suggested in scholarly research that focuses on marketing issues, R2 values of 0.75, 0.50, or 0.25 for endogenous latent variables can, as a rough rule of thumb, be respectively described as substantial, moderate or weak.
F-Square
A variable in a structural model may be affected/influenced by a number of different variables.
Removing an exogenous(外生變數) variable can affect the dependent variable.
F-Square is the change in R-Square when an exogenous variable is removed from the model.
f-square is effect size (>=0.02 is small; >= 0.15 is medium;>= 0.35 is large) (Cohen, 1988).
Q-Square Q2
Q-square is predictive relevance, measures whether a model has predictive relevance or not (> 0 is good).
Further, Q2 establishes the predictive relevance of the endogenous constructs.
Q-square values above zero indicate that your values are well reconstructed and that the model has predictive relevance.
A Q2 above 0 shows that the model has predictive relevance.
In order to find out the Q Square value, run Blindfolding procedure in SMART-PLS. ###
內文:
Moreover, the Q-square values for brand authenticity, brand attachment, and brand loyalty are 0.161, 0.302, and 0.244, respectively.
Q-square value is predictive relevance, measures whether a model has predictive relevance or not. Q-square values above zero indicate that the model are well reconstructed and has predictive relevance.
Blindfolding https://www.smartpls.com/documentation/algorithms-and-techniques/blindfolding
Blindfolding is a sample re-use technique. It allows calculating Stone-Geisser's Q² value (Stone, 1974; Geisser, 1974), which represents an evaluation criterion for the cross-validated predictive relevance of the PLS path model.
We have discontinued support for blindfolding in SmartPLS 4 and removed the algorithm. The blindfolding method does not provide an out-of-sample assessment of predictive power. However, the PLSpredict preocedure and the cross-validated predictive ability test (CVPAT) provide the results required for an out-of-sample predictive power assessment (for further explanations, see Hair et. al, 2022). PLSpredict and the CVPAT have been implemented in SmartPLS and we recommend using these methods instead of blindfolding.
PLSpredict https://www.smartpls.com/documentation/algorithms-and-techniques/predict/
Cross-validated predictive ability test (CVPAT) https://www.smartpls.com/documentation/algorithms-and-techniques/cvpat/
MV Predicition summary LV prediction summary
一般我們所蒐集的研究 資料,都是可以直接測量觀察的變數資料,因此稱為外顯變數 (manifest variables)、觀察變數(observed variables)或測量變 數(measured variables)。
#SmartPLS4 Series 32 - Where is Q Square in SmartPLS 4?
Predictive Relevance (Q2) with SmartPLS2
SmartPLS 4: PLS Predict
可以透過R Square 檢視潛在構面可以被其他構面解釋的程度,但R Square 會受到自變項數目影響,當自變項越來越多則R Square 會只增不減,因此R Square Adjusted調整此問題,所以我常常會看R Square Adjusted而非R Square ,舉例來說,構面CO能被其他構面解釋10.5℅變異量,若考慮到自變項數目,則構面CO能被其他構面解釋10.2℅變異量。
如果有三個潛在購面影響A構面,則A構面的R Square於無法看出三個構面個別能解釋A的程度。 f Square則解決此問題,可以檢視個別構面影響A的效果值,例如:CO構面能被SQ和SV構面解釋,而SQ和CO的 f Suuare為0.233。 根據 Cohen (1988)標準,f Square0.02以下為低效果值,0.15為中度效果,.35以上為高度效果值。
如果自變項之間關連程度非常高時,甚至很可能用一個自變項取代其他自變項時,就很可能擁有多元共線性問題。我們也需要檢視模型是否具有多元共線性問題,檢是outer VIF是否有超過標準,如果VIF值超過5則很可能具有多元共線性問題(Hair et al., 2011)
接下來我們要檢視測量類性構面的變項是否具有高度關聯,也就是收斂效度。點選螢光黃標處,就可以檢視收斂效度的數據,composite reliability>.6,Cronbach’s Alpha >.7,就算是有收斂信度;factor loading>.7,AVE>.5算是具有收斂效度。
測量不同構念的變項之間關聯是否較低,也就是區別效度。區別效度可以使用Fornell-Larcker criterion ,若每個構面都具「構面的題目解釋程度>其他構面解釋程度」則具有區別效度。 同構面對應係數是AVE的開根號(黃色螢光),而不同構面對應的是相關係數(綠色螢光),若最小的AVE的開根號>最高的相關係數,則代表具區別效度。
區別效度也可以從另一角度來看,若相同構面的觀察變項都具有高loading(黃色螢光處),對其他構面loading都不高,也具有區別效度。例如:co1~3在co購面的loading介於.894~.929之間,而在其他構面的負荷量都低於.5以下。
[https://vocus.cc/article/5fd0a51bfd8978000133d2a0]
VOCUS
使用PLS-SEM檢定測量衡等性和多群組分析 [連結]
# 使用PLS-SEM檢定中介作用 [連結] # VAF <20%無中介效果 20%~80%表示部分中介效果 80%以上完全中介效果。
VAF = 間接效果值 / 整體效果值 需自行做圖表計算比例。
# 使用PLS-SEM檢定調節作用 [連結]
使用 SmartPLS進行PLS-SEM [連結]
RMSEA最好小於.08(或.10),NFI最好高於0.9,estimated model是基於總體效果方案並考慮模型結構的模型。 因此,它再擬合度度量是比較嚴格的模式。然而Model Fit是基於CB-SEM的基礎,而非PLS-SEM,因此漸漸有很多研究開始不再使用這些指標來評鑑PLS-SEM。
當自變項越來越多則R Square 會只增不減,因此R Square Adjusted調整此問題,所以我常常會看R Square Adjusted而非R Square ,舉例來說,構面CO能被其他構面解釋10.5℅變異量,若考慮到自變項數目,則構面CO能被其他構面解釋10.2℅變異量。
如果有三個潛在購面影響A構面,則A構面的R Square於無法看出三個構面個別能解釋A的程度。 f Square則解決此問題,可以檢視個別構面影響A的效果值,例如:CO構面能被SQ和SV構面解釋,而SQ和CO的 f Square為0.233。
根據 Cohen (1988)標準,f Square 0.02以下為低效果值,0.15為中度效果,.35以上為高度效果值。
如果自變項之間關連程度非常高時,甚至很可能用一個自變項取代其他自變項時,就很可能擁有多元共線性問題。我們也需要檢視模型是否具有多元共線性問題,檢視 outer model VIF(形成指標時使用)、inner model VIF(反映型模型時使用) 是否有超過標準,如果VIF值超過5則很可能具有多元共線性問題(Hair et al., 2011)。Inner model VIF 小於5,即意味變數間無共線問題存在(Hair, Ringle, & Sarstedt, 2011),否則模品質不佳,難以解釋。
在SmartPLS中建立结构方程模型 [點我]
臺師大科技應用與人力資源發展學系 碩士論文 中學教師實施機器人教學的影響因素之研究
NOTE :結構模型評估
## 效果值(f 2)的大小可以檢視構面之間的影響程度,以f 2>0.35 表示高影響效果;f 2 介於0.15 到0.35 之間屬於中影響效果;而f 2 介於0.02 到0.15 之間則表示低影響效果(Cohen, 1988) f Square 0.02以下為低效果值
## 另外,使用blindfolding 演算法檢視Q2 值,當Q2 值大於0,則表示模型有預測相關性(Hair et al., 2014),如表4-6 所示,所有Q2 值皆大於0,代表此模型具有預測相關性。
## 最後,在PLS-SEM 中以SRMR(Standardized Root Mean Square Residual)來表示模式適配度(Henseler, Hubona, & Ray, 2016),且以SRMR 值大於0.08 為可接受之模型適配度指標(Hu & Bentler, 1999),分析結果顯示本研究之SRMR 值為0.09,故可表示本研究之模型具有良好之模型適配度。
[信度分析]
為確保研究工具「中學教師實施機器人教學行為意向調查問卷」具有良好之信度,主要透過指標信度(Indicator reliability)與內部一致性信度(Internal consistency reliability)兩個層面來檢視問卷的信度。
# 以問項因素負荷量(Factor loadings)達0.7 以上代表指標信度較好,意即該問項對構面的衡量程度較好(Hair et al., 1998)。
# 另外,內部一致性除了透過構面的Cronbach’s alpha 與CR 衡量係數要達到0.7 以上來判斷之外(Bagozzi & Yi, 1988;Hair et al., 2016;Nunnally & Bernstein, 1994),參考Dijkstra 和Henseler (2015a;2015b)的定義,利用PLS-SEM中Dijkstra- Henseler's rho(rho_A)係數達0.7 來確保問項之間具有高度相關性,意即各個構面下的所有問項皆在衡量相同之概念。
[效度分析]
效度分析的主要用意是為了確保研究工具或量表的正確性,可以透過收斂效度(Convergent validity)與區別效度(Discriminant validity)兩個指標來衡量。
# 收斂效度是檢視該構面下的問項之間是否具相關性,其檢定值應該要高;而區別效度則是檢視不同構面中問項之間的相關性,因此其檢定值應該要低,代表不同構面下的問項在衡量不同的概念。
#本研究為確保研究工具「中學教師實施機器人教學行為意向調查問卷」具良好之效度,將以AVE 達到0.5 確保本研究工具有良好之收斂效度(Bagozzi & Yi, 1988;Fornell & Larcker, 1981),意指能透過問項來預測構面的程度較好。
此外,藉由Fornell-Larcker Criterion 以及Heterotrait- Monotrait Ratio criterion(HTMT)兩個指標來衡量問卷的區別效度。其中Fornell-Larcker Criterion 是利用AVE 平方根大於兩兩構面間的相關係數(Fornell & Larcker, 1981)為準則;
另透過HTMT 值小於0.9 表示研究工具具良好之區別效度(Henseler, Hubona, & Rai, 2016)。
## 內部一致性信度 Cronbach’s alpha, CR, rho A。 ## 收斂效度主要透過各構面之AVE
依據表4-5 彙整之分析結果可以得知,各問項之因素負荷量皆滿足需大於0.7 的標準(Hair et al., 1998),代表此研究工具具良好之指標信度。內部一致性信度方面,此模型中所有構面之Cronbach’s alpha 值、CR、以及rho_A 係數皆大於0.7(Bagozzi & Yi, 1988;Dijkstra & Henseler, 2015a; 2015b;Hair et al., 2016;Nunnally & Bernstein, 1994),表示同一個構面下的問項與問項之間彼此具有高度相關性,亦即本研究工具具良好之內部一致性信度。藉由指標信度與內部一致性信度的分析結果可以表示本研究工具具有良好之信度。## 內部一致性信度 Cronbach’s alpha, CR, rho A。
而收斂效度主要透過各構面之AVE 值來檢測,如表4- 3 所示,各構面的AVE 滿足大於0.5 的標準(Bagozzi & Yi, 1988;Fornell & Larcker, 1981),可以表示本研究工具有良好的收斂效度。 ## 收斂效度主要透過各構面之AVE
此外,在效度方面,本研究中亦透過Fornell-Larckrer Criterion、以及Heterotrait- Monotrait Ratio criterion(HTMT)兩個指標來檢視研究工具的區別效度。如表4-4 所示,Fornell-Larckrer Criterion 主要是透過各構面AVE 的平方根值來檢測(表4-4 中對角線粗體字),若AVE 平方根值大於兩兩構面間的相關性係數(表4-4 中下方三角形中的數值),則代表具有區別效度(Fornell & Larcker, 1981);而HTMT 的衡量標準則為其值(表4-4 中上方三角形中的數值)須小於0.9,即代表工具具良好的區別效度(Henseler, Hubona, & Rai, 2016)。分析結果顯示,各構面AVE 平方根值皆大於兩兩構面間的相關性係數;且HTMT 值皆小於0.9 的標準,分析結果彙整如表4-4 所示,由此二標準可以得知整體具有良好的區別效度。綜合上述,測量模型之信、效度皆符合標準,因此後續將進行結構方程模型之分析。
結構方程模型分析 (結構模型評估) f2 R2 Q2
本研究使用smartPLS 3.3.0 軟體進行PLS-SEM 分析結構方程模型,並根據Hair 等人(2014)的建議,採用5000 次隨機子樣本進行拔靴法來檢驗研究假設是否成立、以及透過路徑係數和顯著性解釋構面與構面之間的關係。在PLS-SEM 中,透過β係數(β)、路徑係數顯著性(p 值)和相對應的t 值來表示構面之間的相關性,然而,因p 值僅可以表示是構面間否存在影響效果,無法表示影響效果的程度高低(Sullivan & Feinn, 2012),故依據Hair 等人(2014)的建議,應加入表示效果大小的效果值(f 2),以及預測相關性(Predictive relevance)(Q2 值),以評鑑模型預測能力。此外,模型的解釋能力亦是評鑑模型品質的指標之一,以R2>0.67 表示高度解釋力、R2>0.33 表示中度解釋力、R2>0.19 則表示解釋力較薄弱(Chin, 1998)。
[假設結果的寫法]
2. 假設二(H2):中學教師對機器人教學的主觀規範會影響其實施機器人教學的行為意向。結果表示,主觀規範對機器人教學的行為意向有顯著的預測效果(β=0.206,t=2.011,p<.05),表示當教師的主觀規範越強烈,其傾向表現出更高的機器人教學實施意圖,故假設二成立。
據此,結構方程模型如圖4-1 所示,即為中學教師實施機器人教學的行為模式。透過效果值(f 2)的大小可以檢視構面之間的影響程度,以f 2>0.35 表示高影響效果;f 2 介於0.15 到0.35 之間屬於中影響效果;而f 2 介於0.02 到0.15 之間則表示低影響效果(Cohen, 1988)。根據表4- 5 呈現的分析結果,價值認定對態度為高影響效果(f 2=0.686);知覺行為控制對行為意向、行為意向對實際教學行為、以及知覺行為控制對實際教學行為的影響程度皆為中效果;而主觀規範對行為意向、價值認定對知覺行為控制、以及價值認定對行為意向則為低影響效果。另外,使用blindfolding 演算法檢視Q2 值,當Q2 值大於0,則表示模型有預測相關性(Hair et al., 2014),如表4-6 所示,所有Q2 值皆大於0,代表此模型具有預測相關性。
最後,在PLS-SEM 中以SRMR(Standardized Root Mean Square Residual)來表示模式適配度(Henseler, Hubona, & Ray, 2016),且以SRMR 值大於0.08 為可接受之模型適配度指標(Hu & Bentler, 1999),分析結果顯示本研究之SRMR 值為0.09,故可表示本研究之模型具有良好之模型適配度。
故依據Hair 等人(2014)的建議,應加入表示效果大小的效果值(f 2),以及預測相關性(Predictive relevance)(Q2 值),以評鑑模型預測能力。此外,模型的解釋能力亦是評鑑模型品質的指標之一,以R2>0.67 表示高度解釋力、R2>0.33 表示中度解釋力、R2>0.19 則表示解釋力較薄弱(Chin, 1998)。
使用PLS-SEM檢定測量衡等性和多群組分析 [點我]
多群組比較 多組分析 群組比較 MGA 操作 [使用PLS-SEM檢定測量衡等性和多群組分析]
1.選好資料集 > 生成數據分組 > 指定分組欄位 (會自動判別) #獲得 數據組別 1與2組與低組(EXCEL先行分組) 可編輯更名 #類別欄位直接用編碼分組。
2.先 計算Permutation(置換) > 基本設置 需指定A組 B組 經計算後報告(可切模型 左下角兩個分組結果) > 步驟2 再步驟3 觀看檢定是否通過。
3.最後再進行MGA,也可以檢視兩個群組在中介作用有沒有顯著差異,上圖所示,兩組沒有顯著差異。此外也可以檢視R Square /F Square/AVE/信度/loading有無差異。 #皆是使用Permutation(置換) ,非使用MGA??!
## 排列(置換)演算法(MICOM):測量組間(inter-group)差異(不變性) 9-1 排列(置換)演算法(Permutation algorithm, MICOM)
# Specific Indirect Effects
## Understanding R Square, F Square, and Q Square using SMART-PLS [LINK]
Did you know, that articles and other literature on PLS-SEM using SmartPLS are often among the top-cited ones? For inspiration for your own publication, have a look at the following must-read papers:
Famous handbook article: Sarstedt, M., Ringle, C. M., & Hair, J. F. 2021. Partial Least Squares Structural Equation Modeling. In C. Homburg, M. Klarmann, & A. Vomberg (Eds.), Handbook of Market Research. Heidelberg: Springer.
PLS-SEM and CB-SEM: Sarstedt, M., Hair, J. F, Ringle, C. M., Thiele, K. O., & Gudergan, S. P. 2016. Estimation Issues with PLS and CBSEM: Where the Bias Lies! Journal of Business Research, 69(10): 3998-4010. In addition, you may also want to take a look at the article by Rigdon et al. (2020).
Getting started with PLS-SEM: Hair, J. F., Risher, J. J., Sarstedt, M., & Ringle, C. M. 2019. When to Use and How to Report the Results of PLS-SEM. European Business Review, 31(1), 2-24.
How to use PLSpredict?! Shmueli, G./ Sarstedt, M./ Hair, J.F./ Cheah, J.-H./ Ting, H./ Vaithilingam, S./ Ringle, C.M.: Predictive Model Assessment in PLS-SEM: Guidelines for Using PLSpredict, European Journal of Marketing, Volume 53 (2019), Issue 11, pp. 2322-2347.
Importance-Performance Map Analysis (IPMA): Ringle, C. M. & Sarstedt, M. 2016. Gain More Insight from Your PLS-SEM Results: The Importance-Performance Map Analysis. Industrial Management & Data Systems, 116(9): 1865-1886.
Higher-order constructs in PLS-SEM: Sarstedt, M., Hair, J. F., Cheah, J.-H., Becker, J.-M., & Ringle, C. M. (2019). How to Specify, Estimate, and Validate Higher-order Constructs in PLS-SEM. Australasian Marketing Journal, 27(3), 197-211.
Mediation and no need for PROCESS: Sarstedt, M./ Hair, J.F./ Nitzl, C./ Ringle, C.M./ Howard, M.C.: Beyond a Tandem Analysis of SEM and PROCESS: Use of PLS-SEM for Mediation Analyses!, International Journal of Market Research, Volume 62 (2020), Issue 3, pp. 288-299.
Moderation: Becker, J.-M./ Ringle, C.M./ Sarstedt, M.: Estimating Moderating Effects in PLS-SEM and PLSc-SEM: Interaction Term Generation x Data Treatment, Journal of Applied Structural Equation Modeling, Volume 2 (2018), Issue 2, pp. 1-21.
PLS-SEM algorithm performance: Hair, J. F., Hult, G. T. M., Ringle, C. M., Sarstedt, M., & Thiele, K. O. 2017. Mirror, Mirror on the Wall: A Comparative Evaluation of Composite-based Structural Equation Modeling Methods. Journal of the Academy of Marketing Science, 45(5): 616-632.
Use FIMIX-PLS in SmartPLS: Matthews, L., Sarstedt, M., Hair, J. F., & Ringle, C. M. 2016. Identifying and Treating Unobserved Heterogeneity with FIMIX-PLS: Part II – A Case Study. European Business Review, 28(2): 208-224.
Hair JF, Hult GTM, Ringle CM, Sarstedt M (2014) A primer on partial least squares structural equation modeling (PLS-SEM). Sage, Thousand Oaks
Hair, J., Hult, T., Ringle, C., & Sarstedt, M. (2014). A Primer on Partial Least Squares Structural Equation Modeling (PLS-SEM). Thousand Oaks, CA: Sage Publications, Inc.
AMOS 26 下載 https://www.downkuai.com/soft/122472.html