Amortised Bayesian Optimisation

No Thumbnail Available

Files

URL

Journal Title

Journal ISSN

Volume Title

Perustieteiden korkeakoulu | Bachelor's thesis
Electronic archive copy is available locally at the Harald Herlin Learning Centre. The staff of Aalto University has access to the electronic bachelor's theses by logging into Aaltodoc with their personal Aalto user ID. Read more about the availability of the bachelor's theses.

Date

2024-05-08

Department

Major/Subject

Tietotekniikka

Mcode

SCI3027

Degree programme

Teknistieteellinen kandidaattiohjelma

Language

en

Pages

28

Series

Abstract

Bayesian optimisation (BO) is a widely researched method for optimising black-box functions that are costly to evaluate. A subset of BO methods that has gathered interest is the set of learnt optimisers, which leverage information from related historical optimisation tasks to enable faster inference in unseen tasks. A number of recent frameworks attempt to amortise optimisation costs by passing optimisers through a training phase, which aims to produce meta-learnt, time-saving optimisers that outperform traditional frameworks. This form of BO is often referred to as Meta-Bayesian Optimisation (meta-BO). This thesis is a literature review that provides a critical assessment of several contemporary meta-BO frameworks. The scope encompasses amortised meta-BO frameworks, with a focus on those that utilise deep neural networks in the optimisation algorithm. In this work, it is found that amortised meta-BO frameworks are able to outperform traditional BO methods during deployment in terms of efficiency, accuracy and speed. Additionally, their lower optimisation costs may enable a variety of optimisation tasks for wider use. However, it is noted that amortised frameworks require planning during the training phase, where past tasks are chosen to be leveraged for the learning process. As a result, meta-optimisers are not a completely expertise-free solution to optimisation problems, as both traditional and meta-learnt optimisers require manual tuning and a degree of domain knowledge to enable favourable optimisation outcomes.

Bayesiläinen optimointi on laajasti tutkittu menetelmä funktioiden optimointiin tilanteissa, joissa niiden muotoa ei tunneta tarkasti ja niiden arvojen suora laskenta on raskasta. Nämä ominaisuudet ovat tehneet aiheesta suositun muun muassa koneoppimisen saralla, sillä koneoppimismallien hyperparametrien optimointiin voi kulua paljon resursseja. Aiheeseen liittyvää kiinnostusta ovat herättäneet metodit, jotka valjastavat koneoppimisen avulla käyttöön menneitä optimointiongelmia. Oppimisen tarkoituksena on parantaa optimointimallien tehokkuutta uusien, mutta samankaltaisten ongelmien edessä. Uusimmat metodit pyrkivät niin sanotusti kustannuksien kuolettamiseen, jossa menneistä ongelmista oppimalla pyritään tuottamaan valittuun ongelma-alueeseen sopivia optimoijia. Näiden optimoijien tavoite on löytää globaalit optimit nopeammin kuin mihin perinteiset metodit pystyvät. Näitä menneitä ongelmia hyödyntäviä optimointimenetelmiä kutsutaan yleisesti meta-bayesiläisiksi optimoijiksi. Tämä työ toteutettiin kirjallisuuskatsauksena, jossa arvioitiin kriittisesti useita nykyajan metaoptimointimenetelmiä. Työn tavoitteena on selvittää, miten metaoptimointi eroaa perinteisistä menetelmistä, ja mitä tulevaisuuden näkymiä näillä on. Työ on rajattu koskemaan erityisesti niitä kuoletettuja menetelmiä, joissa koko bayesiläisen optimoinnin rakenne käy oppimisprosessin läpi niin sanotusti päästä päähän. Erityiseksi kiintopisteeksi on kohdistettu myös metodit, joissa metaoppimiseen on hyödynnetty syviä neuroverkkoja. Tutkimusaineistoksi valittiin tuoreita tieteellisiä julkaisuja, jotka edustavat tämän tutkimusaiheen uusimpia kehityssuuntia. Työn tuloksena saatiin selville, että kuoletettujen meta-bayesiläisten optimoijien teho, tarkkuus ja nopeus kykenevät ylittämään testiympäristöissä perinteisten menetelmien vastaavat tulokset. Lisäksi niiden avulla saavutetut matalammat optimointikustannukset mahdollistavat monenlaisia optimointiongelmia laajemmalle käytölle. Tämän lisäksi tutkimustulokset viittaavat siihen, että erityisesti päästä päähän opetetut optimoijat suoriutuvat muita metaoptimoijia paremmin. Kuoletetut menetelmät vaativat kuitenkin tarkkaa harkintaa oppimisvaiheessa, jossa menneitä ongelmia valitaan hyödynnettäväksi oppimisalgoritmiin. Tältä osin metaoptimoijat eivät välttämättä tarjoa täydellistä helpotusta perinteistiin optimoijiin nähden, sillä molemmat vaativat manuaalista säätöä ja kohdeympäristön tuntemusta suotuisten optimointitulosten aikaansaamiseksi. Meta-bayesiläiset optimoijat ovat kuitenkin tutkimusten perusteella hyödyllinen menetelmä vaikeiden ja tuntemattomien funktioiden optimointiin, ja perinteisten optimoijien nopeuteen nähden usein huomattava parannus. Tulevaisuuden näkymiä tälle alalle ovat muun muassa näiden menetelmien soveltaminen vaihteleville syöteulottuvuuksille, ja joidenkin menetelmien tapauksessa optimointiaskelten enimmäismäärän kasvattaminen. Uusia mahdollisuuksia tarjoaa myös suurten kielimallien hyödyntäminen optimoinnin tehostamiseksi. Suurten kielimallien teho on uusimmissa julkaisuissa havaittu erittäin lupaavaksi juuri bayesiläisen optimoinnin kohdalla, jossa optimointiympäristön tuntemus ja menneen tiedon pohjalta tehdyt arvaukset ovat suuressa roolissa. Suurilla kielimalleilla voi olla tällä saralla huomattavia hyödyntämismahdollisuuksia.

Description

Supervisor

Savioja, Lauri

Thesis advisor

Huang, Daolang

Keywords

bayesian optimisation, neural networks, deep learning, meta-learning, machine learning

Other note

Citation