Logik

Jag gillar matematik, datalogi och logik sedan barnsben. Idag är det mer accepterat att vara en nerd / geek - och utbudet är rätt stort oavsett vilka nördområden man har. Det finns mycket på nätet och stort utbud av böcker, och ifall man bor i närheten av något av landets lärosäten finns ett skapligt kursutbud att välja på. Jag har nära till Stockholms Universitet där bland annat Filosofiska Institutionen och Matematiska Institutionen finns.

På Filosofiska finns bland annat kunskapsteori, semantik, metafysik och dessutom följande kurser som jag tror är intressanta:

På Matematiska finns bland annat algebra, diskret matematik, analys och dessutom följande kurser som jag tror är intressanta:

Historik

Inom filosofins historia finns det många personer att nämna, men följande känns intressanta ifall man är inne på logik, beräkningsbarhet och relationsalgebra:

Kurs

Institutioner har både en ändlig budget och en ändlig uppsättning personal, så de gör gissningsvis någon bedömning av bland annat 'marknadsunderlag' innan de uppfinner nya kurser inom sitt område. Eftersom jag inte arbetar på någon institution kan jag kosta på mig att fundera på vad en önskekurs skulle kunna innehålla som möjligen ligger i gränsområdet mellan olika ämnen/institutioner/kurser men jag inte exakt sett i befintligt utbud.

Relationsalgebra och informationsgruppering: inom datalogin finns 'skrämmande' ord som relationsdatabaser (och andra typer av databaser) och frågespråk som SQL, och för studenter på SU/KTH kan man hitta kurser på NADA/DSV som är applicerbara för de tekniska it-aspekterna. Men jag kan känna att det finns intressanta aspekter ur ett logiskt perspektiv, de Morgan och Peirce gjorde insatser kring relationer och det borde gå att prata ur ett filosofiskt perspektiv hur man kan använda relationsalgebra som verktyg för att gruppera information och 'göra frågor' mot de informationsgrupperna som ett verktyg för modellera information för att få kunskap (utan att för den skull blanda in 'läskiga it-ord').

Statistik som ett hjälpmedel för att resonera kring osäkra/oknivskarpa begrepp/modeller: Andra institutioner ger kurser som tillhandahåller verktyg från statistiken, och jag tänker inte att man behöver 'uppfinna de hjulen' fler gånger, däremot tänker jag att Bayesiansk statistik och hypotesprövning är verktyg som används flitigt inom olika vetenskaper för att resonera kring egenskaper hos olika koncept och testa 'styrkan' hos en viss tes. Man skulle kunna prata filosofiskt om styrkor och svagheter kring dessa ur ett kunskapsperspektiv och elaborera kring viss kritik som finns kring dessa. Vilka risker finns att de 'missbrukas' antingen 'med flit' eller 'av okunskap'?

P vs NP: (inte helt orelaterat till Turings Halting-problem). Spontant tänker nog flera att frågeställningen hör hemma i gränslandet mellan datalogin och matematiken, men jag tror det kan finnas en intressant diskussion av dess eventuella konsekvenser inom filosofin kring vilka frågor som vi kan förvänta oss att kunna skaffa svar på med 'mekanisk' hjälp.

Lambdakalkyl och Turingmaskiner: skulle det gå att prata om de arbeten som Church och Turing gjorde som många av oss datalogi-personer hyllar utan att prata för mycket datalogi och utan att använda läskiga ord som funktionell programmering eller lambdakalkyl eller statemaskiner? Det vill säga ur ett mer konceptuellt perspektiv och ur ett modellperspektiv?

Kaos/känslighet för initialvillkor: Poincare, Lyapunov och Lorenz gjorde tidiga arbeten kring det som senare i populärmedia kallas 'kaosteori' / 'fjärilseffekt' (eller för matematiker: känslighet för initialvillkor). Man kan hitta kurser / litteratur inom andra ämnen - men skulle kunna beröra vissa typer av problemområden (vi kan göra prognoser för månförmörkelser flera årtionden i förväg, men väderprognoser några dagar i framtiden är osäkra) där det finns gränser vad vi kan 'räkna ut' (oavsett om vi tycker vi har en bra modell, och tycker vi gör finurlig matematik och har kraftfulla datorer).

Fuzzy logic/set theory: brukar sägas ha myntats av Lotfi Zadeh i mitten av 1960talet. Spontant är det lätt att tänka att det hör hemma inom datalogin och är användbart för ett antal 'styr-och-regler-problem'. Men ideer kring flervärd logik har funnits sedan åtminstone 1920-talet, bland annat Lukasiewicz och Tarski gjorde tidiga insatser. Jag är nyfiken på vilka utmaningar man får inom predikatlogik, kring vissa operatorer, vilka utmaningar man får när man försöker prata flera av de grundbultar som anses viktiga inom 'crisp logic'. Vilka fördelar respektive utmaningar har man när man översätter från naturliga språk (till skillnad från crisp logic)? Om man bortser från att naturliga språk tenderar att vara mindre exakta än formella så innehåller ju 'verkligheten' ofta inexakta begrepp - kan man inom filosofisk logik dra nytta av det i någon mån men ändå kunna göra 'gediget resonerande' med några av fördelarna från crisp logic? Hur mycket begräsningar innebär fuzziness för soundness, tautologier, slutsatser, giltighet mfl? Vilken impact får det för 'logisk följd'? Hur får man en rimlig tolkning av implikation? Vilka möjligheter till induktionsbevis finns? Naturlig deduktion? Härledbarhet?

Böcker som Inspiration

Länktips

xkcd 230: hamiltonian (by Randall Munroe)