AnnoClaw Workflow Workflow

AnnoClaw-Aufgaben in einer Konsole fortsetzen.

Erstellen Sie hier Workflows, prüfen Sie den Status, springen Sie in die menschliche Review und setzen Sie Training, Export und Übergabe fort.

Bitte erledigen Sie zuerst Folgendes: 1. Geben Sie die Dataset-URI im Bereich „Zu annotierende Bilder“ ein

OpenClaw Hosted-Einstiegspunkt und Ressourcen

Aktuelle Site-Basis-URL
https://www.tjmakebot.com
Hosted-Endpunkt
https://www.tjmakebot.com/api/openclaw-gateway/workflows
Kompatibilitätsvorlage und Debug-Einstiegspunkt (nur in Engineering-Szenarien erweitern)
Diese Vorlagen bleiben für Debugging auf Knotenebene, Migrationen und Validierungen auf dem kürzesten Pfad erhalten. Sie sind nicht mehr der Standardeinstieg.
Erweitert: Upstream-API-Adresse anzeigen
Wird geladen...
Empfohlener Pfad: OpenClaw startet den Ablauf, TjMakeBot Workbench hostet den Agent-Workflow und der Editor der Hauptseite übernimmt die menschliche Nachbearbeitung.
Paketgrenze fur Workflow-Aktionen
Aktueller Plan
Free Studio
Workflow execution access
Workflow-Erstellung, Agent-Fortsetzung, Training, Export und Kompatibilitatsaufgaben erfordern Pro Workflow oder hoher.
Collab binding access
Das Binden von Kollaborationsprojekten und das direkte Abschliessen der Review erfordern Team Review Cloud oder Enterprise.
Melden Sie sich zuerst an und verwenden Sie dann einen kostenpflichtigen Workflow-Plan fur Hosted-Workflow-Aktionen.

Hosted Workflow-Konfigurationsbereich

Die linke Seite konfiguriert nur diesen Hosted-Workflow. Der tatsächliche Laufstatus, die aktuelle Phase und die nächste Aktion kommen alle aus der Workflow-Lane rechts.

Wenn Sie unsicher sind, ändern Sie zuerst nur 3 Felder: Project ID, Dataset- oder Bild-URI und Annotationslabels. Nach der Erstellung nicht raten, sondern der Workflow-Lane rechts folgen.
Bildschirmhinweis
Sie sind bei Schritt 1: Erstellen Sie zuerst Hosted Workflow

Speichern Sie zuerst die linke Konfiguration als workflowId. Ohne workflowId können die manuelle Überprüfung, das Training, der Export und die Übergabe auf der rechten Seite nicht die richtige Sitzung finden.

Bereich, auf den Sie sich jetzt konzentrieren sollten: Füllen Sie jetzt nur den ersten Teil auf der linken Seite klar aus. Trainings- und Exportparameter können auf Standardwerten bleiben.
Schritt 1 / Hier beginnen

Grundlegende Informationen: Füllen Sie zuerst diese Elemente aus

Bearbeitbar

Bei der ersten Verwendung reicht es aus, nur diese Gruppe auszufüllen. Die restlichen Trainings- und Exporteinstellungen können alle auf Standardwerten bleiben.

Zu annotierende Bilder einreichen

Teilen Sie dem System zuerst mit, welche Bilder Sie annotieren möchten

Hier werden zwei Eingabemodi unterstützt: 1) eine Dataset-ZIP-URI direkt angeben oder 2) eine Liste von Bild-URIs zeilenweise übermitteln. Dieses Automations-Workbench unterstützt derzeit noch keinen direkten Upload lokaler Browser-Dateien.

Wenn sich Ihre Bilder noch auf dem lokalen Computer befinden, gehen Sie bitte zuerst zu Hauptseiten-Editor, um sie zu importieren oder zu organisieren, und kehren Sie dann mit cloudfähigen URIs hierher zurück.
Annotationskategorien-Design

Teilen Sie dem System dann mit, welche Objekte Sie annotieren möchten

Labels sind die Objektnamen, die die KI automatisch annotieren soll, zum Beispiel person, car oder traffic-light. Verwenden Sie die Schnellschaltflächen unten oder fügen Sie Labels manuell hinzu.

Häufige Kategorien schnell hinzufügen
Diese Kategorien werden derzeit annotiert
PersonAutoAmpel
Teil 2: Trainings- und Exporteinstellungen (Standardwerte können direkt verwendet werden)
Die meisten Benutzer müssen diesen Bereich nicht sofort öffnen. Prüfen Sie die entsprechende Gruppe erst, wenn Sie Training oder Export erreichen.
Schritt 3

Trainingseinstellungen

Überprüfen Sie dies nur, wenn Sie bereit sind, das Training zu starten. Die Standardparameter sind bereits für die erste Demo geeignet.

Schritt 5

Exporteinstellungen

Diese Gruppe muss nur nach Abschluss des Trainings überprüft werden. Während der Trainingsphase müssen Sie sich nicht darum kümmern.

Erweiterter Modus: Manuelle Übernahme / Kompatibilitäts-Debugging (normale Benutzer müssen nicht erweitern)
Dieser Bereich enthält nur Wiederherstellungs- und Engineering-Debug-Aktionen. Die Buttons werden strikt nach den aktuellen allowedActions des Workflows gefiltert, sodass nur tatsächlich erlaubte manuelle Schritte angezeigt werden.

Derzeit verfügbare manuelle Übernahmeaktionen

Wenn eine Aktion hier nicht erscheint, ist sie im aktuellen Workflow nicht erlaubt. Bleiben Sie im Normalfall beim Hauptfluss.

Der aktuelle Workflow hat keine Aktionen, die eine manuelle Übernahme erfordern. Es ist jetzt besser geeignet, auf Echtzeit-Synchronisation zu warten oder gemäß der aktuellen Phase auf der rechten Seite fortzufahren.

Kompatibilitätsvalidierung und zugrunde liegendes Aufgaben-Debugging

Dieser Bereich ist für OpenClaw-Engineering-Validierung, kürzeste Smoke-Tests und API-Debugging auf Knotenebene vorgesehen. Die meisten Benutzer benötigen ihn nicht.

Workflow- und Aufgabenstatusmeldungen werden hier angezeigt.
Aktuelle Workflow-Lane

Schritt 1: Erstellen Sie zuerst Hosted Workflow

Speichern Sie zuerst die linke Konfiguration als workflowId. Ohne workflowId können die manuelle Überprüfung, das Training, der Export und die Übergabe auf der rechten Seite nicht die richtige Sitzung finden.

Nicht gestartet
Automations-Workbench
Nächste Aktion
-
Echtzeit-Synchronisation
-
Workflow-ID
-
Gesamtfortschritt
0%
Erledigt wenn
Nach erfolgreicher Erstellung wechselt die rechte Seite zu "Manuelle Überprüfungsseite öffnen" und workflowId, nächste Aktion und erlaubte Aktionen erscheinen.
Das vermeiden
Bitte erledigen Sie zuerst Folgendes: 1. Geben Sie die Dataset-URI im Bereich „Zu annotierende Bilder“ ein

Workflow-Karte: Wer ist für welchen Schritt verantwortlich

Diese Lane existiert aus genau einem Grund: Die aktuelle Phase, den Zuständigen und die nächste Aktion sofort sichtbar zu machen. Die Hauptseite verantwortet Frontend-Seiten und menschliche Übergaben, AnnoClaw verwaltet die Workflow-Zustandsmaschine.

1
Hosted Workflow erstellen
Hauptseiten-Hosting · Führen Sie zuerst diesen Schritt aus
Die linke Konfiguration wird als workflowId gespeichert. Die nachfolgende manuelle Überprüfung, das Training, der Export und die Übergabe werden alle um diesen Workflow herum fortgesetzt.
2
Site-interne manuelle Überprüfung
Menschliche Review · Warten auf Workflow
Die eigentliche manuelle Überprüfung erfolgt im Hauptseiten-Editor. Klicken Sie auf die Überprüfungsseite, schließen Sie dann die manuelle Bestätigung im Editor ab und geben Sie die Kontrolle an den Agent zurück.
3
OpenClaw Agent übernimmt Training
OpenClaw Agent · Warten auf manuelle Überprüfung
Nach Abschluss der manuellen Überprüfung wird der OpenClaw-Workflow gemäß allowedActions und resumeAction mit dem Training fortfahren. Nur bei Blockierung ist eine manuelle Übernahme erforderlich.
4
Agent exportiert Modell automatisch
Exportphase · Warten auf Training-Abschluss
Nach Abschluss des Trainings wird der OpenClaw-Agent weiterhin den Export auslösen. Artefakt-URI und Version werden in den aktuellen Workflow zurückgeschrieben.
5
Artefakte und Übergabe-Links anzeigen
Hauptseiten-Übergabe · Warten auf Export-Abschluss
Nach Abschluss des Closed Loop bleiben die Ergebnisse auf dem Hauptseiten-Frontend sichtbar, einschließlich Artifact URI, Trainingswiederherstellungsseite und Editor-Deeplink.

Echtzeit-Snapshot

Leerlauf
Workflow-ID
-
Projekt-ID
-
Collab-Projekt-ID
-
Eingereichte Assets
-
Training Epoch
-
Dataset-Versions-ID
-
Release-ID
-
Artefakt-URI
-
Lieferdatei
-
Nächste Aktion: -
Agent-Wiederaufnahmeaktion: -
Manuelle Aufgabe: No pending human task
Projekt: -
Collab-Projekt: -
Dataset-Version: -
Release-ID: -
Annotationskategorien: -
Empfohlener Plan: -
Download-Einstiegspunkt: -
Gesamtfortschritt: 0%

Hauptseiten-Seiten und Ergebnisübergabe

Alle menschenorientierten Seiten bleiben auf der TjMakeBot-Hauptseite, einschließlich Review-Seite, Trainings-Wiederherstellungsseite und Ergebnis-Handoff-Seite; AnnoClaw liefert den Workflow-Status und die Aktionsberechtigungen.

Collab-Projekt verknüpftAusstehend
-
Dieser Workflow ist noch keinem Collab-Projekt zugeordnet, daher sind nachgelagerte Review- und Delivery-Deep-Links noch nicht verfügbar.
Dataset-Version synchronisiertAusstehend
-
Dies wird in der Regel nach der Review-Freigabe erstellt, wenn die Lieferung weiterläuft.
Release erstelltAusstehend
-
Dies wird typischerweise nach Training/Export erstellt, damit Delivery- und Trainingslinie nachvollziehbar bleiben.
Review-URL:: -
Training-URL:: -
Lieferzusammenfassungs-URL:: /de/openclaw/workbench#handoff-workspace

Annotationsaufgabe

Gemeinsamer Annotationseinstiegspunkt für Agent-Workflow und zugrunde liegende Schnittstelle

Leerlauf
Task-ID: -
Erstellt: -

Trainingsaufgabe

Kann zur Hauptseiten-Trainingsansicht zurückkehren oder weiter pollen

Leerlauf
Task-ID: -
Erstellt: -

Exportaufgabe

Artefakt-Link, Format und Callback werden hier aufgezeichnet

Leerlauf
Task-ID: -
Erstellt: -