지능형 재료 모델링: 폴리설폰 막의 기계적 성능 예측을 위한 대규모 언어 모델과 부분 최소 제곱 회귀 분석의 비교
Intelligent Materials Modelling: Large Language Models Versus Partial Least Squares Regression for Predicting Polysulfone Membrane Mechanical Performance
폴리설폰(PSF) 막의 기계적 특성을 구조적 특징으로부터 예측하는 것은 실험 연구에서 흔히 발생하는 극심한 데이터 부족으로 인해 여전히 어려운 과제입니다. 본 연구에서는 이 문제를 해결하기 위해, 4개의 대규모 언어 모델(LLM) (DeepSeek-V3, DeepSeek-R1, ChatGPT-4o, 그리고 GPT-5)을 사용하여 부분 최소 제곱(PLS) 회귀 분석과 비교하여 영률(E), 인장 강도(TS), 그리고 파단 연장률(EL)을 예측했습니다. 예측에 사용된 구조적 특징은 기공 직경(PD), 접촉각(CA), 두께(T), 그리고 다공성(P) 측정값입니다. 이러한 지식 기반 접근 방식은 화학적 기반 모델에 비해 특성별로 장점을 보였습니다. 특히, LLM은 EL 예측에서 통계적으로 유의미한 개선을 보였으며, DeepSeek-R1과 GPT-5는 각각 Root Mean Square Error를 40.5%와 40.3% 감소시켜, 평균 절대 오차를 $11.63 ext{%} ext{±} 5.34 ext{%}$에서 $5.18 ext{%} ext{±} 0.17 ext{%}$로 줄였습니다. LLM의 경우, 반복 실험 간의 변동성이 PLS에 비해 현저히 낮았습니다 ($ ext{≤}3 ext{%}$) (PLS의 경우 최대 47%). E와 TS 예측의 경우, 두 접근 방식 간의 통계적 차이가 없었습니다 ($q ext{≥}0.05$), 이는 구조-특성 상관관계가 강한 특성에 대해서는 선형 방법이 충분히 효과적임을 나타냅니다. 오차 토폴로지 분석 결과, 데이터 영역의 영향으로 인해 발생하는 회귀-평균 현상이 모델 자체의 한계보다 더 큰 영향을 미치는 것으로 나타났습니다. 이러한 결과는 LLM이 부트스트랩 불안정성 하에서 비선형적이고 제약 조건에 민감한 특성에 대해 뛰어난 성능을 보이지만, PLS는 해석 가능한 잠재 변수 분해를 필요로 하는 선형 관계에 대해서는 경쟁력을 유지한다는 것을 보여줍니다. 이러한 상호 보완적인 특성은 LLM이 인코딩한 지식을 해석 가능한 프레임워크 내에서 활용하는 하이브리드 아키텍처가 소규모 데이터 환경에서의 재료 개발을 최적화할 수 있음을 시사합니다.
Predicting the mechanical properties of polysulfone (PSF) membranes from structural descriptors remains challenging due to extreme data scarcity typical of experimental studies. To investigate this issue, this study benchmarked knowledge-driven inference using four large language models (LLMs) (DeepSeek-V3, DeepSeek-R1, ChatGPT-4o, and GPT-5) against partial least squares (PLS) regression for predicting Young's modulus (E), tensile strength (TS), and elongation at break (EL) based on pore diameter (PD), contact angle (CA), thickness (T), and porosity (P) measurements. These knowledge-driven approaches demonstrated property-specific advantages over the chemometric baseline. For EL, LLMs achieved statistically significant improvements, with DeepSeek-R1 and GPT-5 delivering 40.5% and 40.3% of Root Mean Square Error reductions, respectively, reducing mean absolute errors from $11.63\pm5.34$% to $5.18\pm0.17$%. Run-to-run variability was markedly compressed for LLMs ($\leq$3%) compared to PLS (up to 47%). E and TS predictions showed statistical parity between approaches ($q\geq0.05$), indicating sufficient performance of linear methods for properties with strong structure-property correlations. Error topology analysis revealed systematic regression-to-the-mean behavior dominated by data-regime effects rather than model-family limitations. These findings establish that LLMs excel for non-linear, constraint-sensitive properties under bootstrap instability, while PLS remains competitive for linear relationships requiring interpretable latent-variable decompositions. The demonstrated complementarity suggests hybrid architectures leveraging LLM-encoded knowledge within interpretable frameworks may optimise small-data materials discovery.
No Analysis Report Yet
This paper hasn't been analyzed by Gemini yet.