A loss function is proposed for solving box-constrained inverse problems. Given causality mechanisms between inputs and outputs as smooth functions, an inverse problem demands to adjust the input levels to make the output levels as close as possible to the target values; box-constrained refers to the requirement that all outcome levels remain within their respective permissible intervals. A feasible solution is assumed known, which is often the status quo. We propose a loss function which avoids activation of the constraints. A practical advantage of this approach over the usual weighted least squares is that permissible outcome intervals are required in place of target importance weights, facilitating data acquisition. The proposed loss function is smooth and strictly convex with closed-form gradient and Hessian, permitting Newton family algorithms. The author has not been able to locate in the literature the Gibbs distribution corresponding to the loss function. The loss function is closely related to the generalized matching law in psychology.
Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies
Informacja
SZANOWNI CZYTELNICY!
UPRZEJMIE INFORMUJEMY, ŻE BIBLIOTEKA FUNKCJONUJE W NASTĘPUJĄCYCH GODZINACH:
Wypożyczalnia i Czytelnia Główna: poniedziałek – piątek od 9.00 do 19.00