AlphaGo fungerar likadant som igenkänning av grejer i en bild. Den tolkar brädet som ett foto och använder precis som de flesta objektigenkännarna CNNs.
Varför skulle det ena vara ai men inte den andra? Jag tycker det låter jättekonstigt att sätta in en gräns för storleken på det neurala nätverket när det blir ai. Typ upp till 5 lager är det inte ai sen är det. +Ett nätverk på 5 lager skulle inte heller spela helt illa i AlphaGo Zero, ungefär lika bra som de bästa go-programmen innan man började använda NNs för dem.