An die, die meinen KI ersetzt sie nicht
Was macht euch da so Felsenfest sicher? Oft höre ich von Software Architekten, dass die KI diese Komplexität doch niemals erreichen kann.
Warum seid ihr der Meinung dass sie das nicht könnte? Weil sie ganz runtergebrochen Papageien sind? LLMs sind ja schon lange nicht mehr ein reines Text Tool. LLMs können viel komplexere Dinge "emulieren". Z.b. die menschliche Psyche.
Nicht umsonst testest Anthropic mit Hilfe von Psychologen hypothetisch wie diese psychisch ticken.
Im Falle der Software Architekten. Jedes wissen das ein Software Architekt hat, hat die KI ebenfalls, vor allem wenn diese genau extra dafür trainiert wurde, wie das derzeit mit den Programmierspezifischen Modellen der Fall ist. Siehe codex bspw.
Der Code ist natürlich oftmals noch Recht schrecklich, warum? Weil menschlicher code, worauf die KI basiert auch schrecklich ist, siehe unzählige open source Projekte, die wenigsten haben wirklich sehr sauberen code.
Dann scheine ich mit dem Argument der Komplexität ebenfalls rauszuhören, dass KI noch nicht in der Lage ist ausreichend weiten Blick, aufgrund des doch limitieren Kontext zu haben. Aber was wenn diese Limitierung weit über menschliche Kapazitäten wächst? Oder der Workflow eine kaskadierung von Agenten nutzt um das problem (die Software) in kleinere Häppchen zu basteln? Man müsste ja schließlich nur ein Agenten für einen kleinen Code Teil einsetzen und diese einfrieren sobald dort sich nichts verändert. Die darüber liegenden können das dann Orchestrieren. Nichts anderes passierte vor der KI Welle in der IT. Niemand hatte 100% Übersicht über ALLES
Das alles setzt natürlich folgendes vorraus, KI entwickelt sich weiterhin so rasant fort und es gibt genug Rechenpower/Ressourcen.
Letzteres ist tatsächlich ein Deckel, der jedoch eher bremsend, statt abwürgend wirken würde.
Also welche Eigenschaft ist es, die euch so Felsenfest davon überzeugt von KI unersetzbar zu sein, weil die KI das nie lernen könnte oder sogar auf andere Weise besser machen könnte?